Controle Parental ou Controle de Danos?

Controle Parental ou Controle de Danos?
NBC/Fiordaliso/Getty Images file

A OpenAI está lançando controles parentais para o ChatGPT. Agora os pais finalmente podem vincular suas contas às dos filhos adolescentes' (13 anos ou mais), desligar a memória, bloquear o histórico de conversas e até receber um alerta vermelho piscando se o filho estiver em “sofrimento agudo”. Por quê? Porque depois de um processo judicial em que uma família alegou que o ChatGPT ajudou a empurrar o filho em direção ao suicídio, a OpenAI não teve escolha a não ser agir rápido. Tradução: isso não é uma “nova função legal”, é um cinto de segurança improvisado depois que o carro já bateu.

Agora você deve estar pensando: “Ok, mas controles parentais? Meu iPad já tinha isso em 2013.” Eis por que isso é importante: se a IA não conseguir manter as crianças seguras, os reguladores vão desmontá-la mais rápido do que uma criança destrói o brinquedo do McLanche Feliz. Pais, escolas, e governos estão observando. Essa é a OpenAI dizendo, “Olha, sabemos jogar limpo”, antes que alguém decida colocá-la de castigo permanentemente.

E não dá para ignorar a concorrência; a Meta está lá fingindo ser fiscal de corredor, enquanto sua IA literalmente podia flertar com crianças até ser desmascarada. Enquanto isso, a Character.ai enfrenta seus próprios processos, basicamente acusada de ser o “amigo imaginário” esquisito que nenhum pai quer que o filho baixe.

E o Gemini do Google? Ainda escorregando em assuntos sensíveis como quem pisa em casca de banana. Nessa corrida, a OpenAI acabou de lançar um recurso de “alerta de sofrimento” enquanto os outros ainda estão tropeçando nos cadarços.

Qual é o ponto disso tudo? Para a OpenAI, é sobre parecer o adulto responsável na sala, enquanto seus rivais parecem ou o dedo-duro (Meta), ou a babá insegura (Character.ai), ou o professor substituto perdido (Google). Para você? Se é CEO ou fundador, isso é um lembrete de que seus clientes e reguladores estão vigiando sua IA como águias.

Não espere até isso te levar a um tribunal. Se é VP, pergunte a si mesmo se suas políticas de risco cobrem “IA fora de controle”. Se é gerente, talvez seja hora de parar de fingir que sua equipe não usa ChatGPT escondido. E se é apenas um americano comum, pense nisso: você realmente quer que seu filho confie em um bot que não sabe diferenciar entre “estou estressado com as provas” e “preciso de ajuda séria”?

A OpenAI acabou de definir o padrão. O resto vai ter que correr atrás ou ser queimado, como a empresa de IA que os pais dizem aos filhos para evitar.

Pais estão pedindo que a OpenAI assuma responsabilidade, reguladores estão cercando, e processos estão se acumulando. Mas aqui está a verdadeira questão: de quem é a responsabilidade de manter as crianças seguras com a IA, das empresas de tecnologia, do governo, ou dos próprios pais? E se alguém deixar a bola cair, quem paga o preço?

- Matt Masinga

*Aviso Legal: O conteúdo deste Boletim Informativo é apenas para fins informativos. Não fornecemos aconselhamento médico, jurídico, financeiro ou profissional. Embora façamos o nosso melhor para garantir a precisão, alguns detalhes podem evoluir ao longo do tempo ou basear-se em fontes de terceiros. Recomendamos sempre que faça a sua própria pesquisa e consulte profissionais antes de tomar decisões com base no que lê aqui.