A OpenAI, empresa responsável pelo desenvolvimento do ChatGPT, anunciou que irá introduzir controlos parentais na sua plataforma de inteligência artificial (IA). Esta nova funcionalidade, prevista para o próximo mês, procura proporcionar um ambiente mais seguro para os utilizadores mais jovens.
OpenAI planeia novas ferramentas para a supervisão parental
A OpenAI revelou que irá lançar controlos parentais para o ChatGPT no prazo de um mês. Assim que estiverem disponíveis, estas ferramentas permitirão aos pais associar a sua conta pessoal do ChatGPT às dos seus filhos adolescentes.
A partir dessa ligação, os encarregados de educação poderão gerir a forma como o chatbot interage com os jovens e desativar funcionalidades específicas, como a memória e o histórico de conversas.
Adicionalmente, o ChatGPT irá gerar alertas automáticos sempre que detetar que um adolescente se encontra num “momento de grande aflição”. Segundo a OpenAI, “o contributo de especialistas irá orientar esta funcionalidade para promover a confiança entre pais e adolescentes”.
O anúncio surge na sequência do primeiro processo judicial conhecido por homicídio por negligência contra uma empresa de IA. No processo, instaurado na semana passada, Matt e Maria Raine, pais de um adolescente que cometeu suicídio este ano, alegam que o ChatGPT tinha conhecimento de quatro tentativas de suicídio falhadas do seu filho antes de o ajudar a planear a sua morte.
Os pais afirmam que o ChatGPT forneceu ao filho, Adam, informações sobre métodos específicos de suicídio e até mesmo sugestões sobre como ocultar lesões no pescoço sofridas nas suas tentativas anteriores.
Medidas de segurança alargadas
A OpenAI declarou que os controlos parentais fazem parte de um esforço mais amplo para melhorar a segurança na plataforma. A empresa comprometeu-se também a colaborar com mais especialistas, incluindo profissionais das áreas de distúrbios alimentares, toxicodependência e saúde adolescente, para aperfeiçoar os seus modelos.
Além disso, a empresa prometeu implementar um novo “router” em tempo real, concebido para encaminhar conversas sensíveis para os seus modelos de raciocínio.
Treinados com um método que denominamos de alinhamento deliberativo, os nossos testes demonstram que os modelos de raciocínio seguem e aplicam as diretrizes de segurança de forma mais consistente e são mais resistentes a prompts maliciosos.
Explicou a OpenAI. Futuramente, em situações onde o ChatGPT detete que um utilizador possa estar em perigo, o chatbot encaminhará essas conversas para um modelo de raciocínio, independentemente do modelo que o utilizador tenha selecionado inicialmente.
De uma forma mais geral, a OpenAI assegura que os utilizadores podem esperar mais funcionalidades de segurança no futuro.
Este trabalho já estava em curso, mas queremos antecipar proativamente os nossos planos para os próximos 120 dias, para que não precise de esperar pelos lançamentos para ver o rumo que estamos a seguir.
O trabalho continuará muito para além deste período, mas estamos a fazer um esforço concentrado para lançar o maior número possível destas melhorias ainda este ano.
Afirmou a empresa.
Leia também: