Usuários estão relatando problemas com a ferramenta / Pexels
Continua depois da publicidade
A OpenAI anunciou nesta terça-feira (16) que o ChatGPT poderá entrar em contato com a polícia se identificar que usuários adolescentes estão com pensamentos suicidas durante o uso da ferramenta inteligente. A medida será parte de um plano de proteção para menores de 18 anos.
“Se um usuário menor de 18 anos estiver com ideias suicidas, tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de perigo iminente”, comunicou o CEO Sam Altman.
Continua depois da publicidade
Outra novidade é que a empresa vai implementar verificação de idade e ferramentas de controle parental no recurso de inteligência artificial.
Se o sistema identificar que o usuário é menor de idade, ele será redirecionado a "uma experiência no ChatGPT com políticas adequadas à sua idade".
Continua depois da publicidade
Vale lembrar que o criador do ChatGPT já disse que a IA vai transformar o trabalho e acabar com profissões.
Segundo a OpenAi, a versão restrita vai bloquear conteúdo sexual explicito e, em situações mais grave, poderá envolver as autoridades para garantir a segurança do usuário adolescente. Os recursos de controle parental devem ser lançados até o fim deste mês.
A nova configuração permitirá que os pais conectem suas contas às dos filhos, e ainda recebam alertas de segurança caso o aplicativo identifique sinais de sofrimento intenso. "Se não conseguirmos contatar um dos pais em uma rara emergência, podemos acionar a polícia como próximo passo", explicou a empresa.
Continua depois da publicidade
A OpenAI anunciou os novos recursos de controle parente no início de setembro, após ser processada por pais de um adolescente de 16 anos que cometeu suicídio nos Estados Unidos. A família diz que o ChatGPT teria sugerido métodos de autoagressão.