Desde a chegada da IA de forma massiva que os alertas são claros. Os utilizadores devem evitar partilhar com a IA informações pessoais e confidenciais. Isso toma agora novos contornos, segundo o que a OpenAI revelou. A empresa não tem nenhum problema em enviar para a polícia as conversas que tem com o ChatGPT.
A OpenAI admitiu que poderia partilhar as suas conversas no ChatGPT com as autoridades. A empresa alterou as suas políticas para lidar com utilizações específicas do seu chatbot, pelo que não hesitará em recorrer às autoridades caso encontre algo de errado. A medida gerou indignação entre os utilizadores, que afirmam que a IA pode tornar-se uma ferramenta para a vigilância em massa.
Uma publicação no blogue da OpenAI está a causar polémica entre utilizadores e especialistas em privacidade. Embora o artigo se concentre na estratégia da empresa para lidar com problemas de saúde mental, existe uma secção que discute o risco de danos físicos a terceiros. A OpenAI refere que tem uma equipa que analisa as conversas do ChatGPT e pode tomar medidas severas.
Revela que se os revisores humanos determinarem que uma ocorrência envolve uma ameaça iminente de danos graves a terceiros, podem encaminhá-la para as autoridades. Embora a OpenAI não mencione os mecanismos que usa para determinar se alguém tenta prejudicar outra pessoa, existe uma secção na política de privacidade que refere que pode partilhar as suas informações com a polícia ou com qualquer agência governamental.
À primeira vista, isto não parece absurdo, considerando que a maioria das aplicações tem políticas semelhantes quando é emitida uma ordem judicial. O problema da OpenAI é que pode fazê-lo sem um mandado expresso, se considerar tal ação necessária para cumprir um requisito legal ou para proteger interesses legítimos.
Alguns especialistas já apontaram os riscos de envolver a polícia em conversas do ChatGPT. A OpenAI não revelou como irá determinar a localização exata do utilizador ou que ações irá tomar em caso de roubo de identidade. Outros vão mais longe, apontando os laços da OpenAI com o governo dos EUA.
As mudanças de política surgem após um casal ter acusado o ChatGPT de contribuir para a morte do filho. Adam e Maria Raine apresentaram uma ação por homicídio negligente contra a OpenAI. Segundo os pais, a IA não impediu o filho de se suicidar, mas sim encorajou-o.