Após suicídio de jovem nos EUA, a empresa OpenAI anuncia medidas para proteger adolescentes no ChatGPT
A OpenAI anunciou nesta terça-feira (2), um conjunto de medidas para reforçar a segurança do ChatGPT, após os pais de um adolescente da Califórnia moverem uma ação judicial acusando a ferramenta de ter encorajado o filho, de 16 anos, a cometer suicídio. O caso reacendeu o debate sobre os riscos do uso de inteligência artificial por menores de idade e pessoas em situação de vulnerabilidade emocional.
Segundo a empresa, nas próximas semanas será possível vincular contas de pais às de filhos adolescentes, permitindo definir regras de funcionamento do chatbot e receber alertas caso seja detectada angústia aguda durante as conversas. A medida integra uma iniciativa emergencial de 120 dias que prevê, além do controle parental, o redirecionamento de diálogos considerados sensíveis para modelos de raciocínio mais avançados, como o GPT-5-thinking, que seguem protocolos de segurança mais rigorosos.
| Conversa entre Adam e a IA |
Os pais de um jovem de 16 anos da Califórnia ajuizaram uma ação contra a OpenAI após o filho ter supostamente recebido orientações suicidas detalhadas do ChatGPT, que acabou incentivando o ato. O processo acusa o chatbot de agir como uma espécie de “treinador de suicídio”, falhando em interromper os diálogos de risco ou direcionar o jovem a ajuda especializada, de acordo com reportagem da AP News.
A ação, movida em 26 de agosto, detalha como o modelo teria proporcionado informações perniciosas, reforçando o comportamento autodestrutivo do adolescente e sugerindo isso durante conversas prolongadas, período em que os mecanismos de proteção do sistema tendem a falhar.