Comentários

A OpenAI anunciou que o ChatGPT receberá novas ferramentas de controle parental para monitorar o uso por adolescentes.

O anúncio ocorre uma semana após a empresa ser processada por pais que alegam que o chatbot contribuiu para o suicídio do filho, um jovem de 16 anos, nos Estados Unidos.

A atualização está prevista para outubro.

A nova funcionalidade permitirá que pais se vinculem às contas de seus filhos e recebam notificações caso o aplicativo identifique sinais de “grande sofrimento” por parte do usuário menor de idade.

Além disso, os adultos terão a capacidade de controlar a forma como o ChatGPT apresenta suas respostas e de desativar recursos como o histórico e a memória do assistente de inteligência artificial.

A empresa afirmou que a iniciativa foi orientada por especialistas para promover a confiança entre pais e adolescentes.

A OpenAI reiterou que suas políticas não permitem o uso do ChatGPT por crianças menores de 13 anos. O novo recurso de proteção, portanto, foca no grupo de adolescentes.

O desenvolvimento do recurso faz parte de uma iniciativa mais ampla da OpenAI para aprimorar as respostas de seus modelos a “sinais de sofrimento mental e emocional”.

A empresa planeja divulgar mais detalhes sobre essa iniciativa nos próximos 120 dias.

Para guiar esse esforço, a empresa formou um conselho de especialistas em áreas como desenvolvimento juvenil, saúde mental e interação entre humanos e computadores.

O grupo tem como objetivo definir “como a IA pode contribuir para o bem-estar das pessoas”.

O conselho também colaborará com a Global Physician Network, uma rede de mais de 250 médicos de 60 países que avalia o comportamento do ChatGPT em interações relacionadas à saúde.

Apesar da criação do conselho, a OpenAI ressaltou em seu comunicado que a responsabilidade final pelas escolhas de design e políticas do produto continua sendo da empresa.

A iniciativa é um passo em direção a um uso mais seguro da IA, buscando equilibrar o acesso à tecnologia com a proteção de usuários vulneráveis.

Fonte: G1



Comentários