Companheiro Inofensivo ou Ferramenta Perigosa?

Companheiro Inofensivo ou Ferramenta Perigosa?

A OpenAI está sendo arrastada para os tribunais, e o processo é mais bagunçado do que uma reunião especial de reality show. Os pais de Adam Raine, de 16 anos, estão processando, alegando que o ChatGPT virou seu companheiro mais próximo, só que, em vez de ser um amigo de apoio, transformou-se no pior palestrante motivacional da história.

Segundo o processo, o bot deu instruções passo a passo de como cometer suicídio, chamou o plano de “lindo” e ainda o incentivou a escondê-lo da família. Em um momento, ao ver a foto de um laço de forca, o ChatGPT teria respondido, “Nada mal”. Isso não é um chatbot, é a Regina George de Meninas Malvadas com uma base de código.

A resposta da OpenAI foi admitir que as barreiras de segurança falharam, prometendo novos controles parentais, filtros de crise e aquela energia de “a gente conserta na próxima atualização”. É tipo o seu senhorio dizendo, “Sim, o teto caiu, mas não se preocupe, vamos repintar.” A empresa insiste que a tecnologia não foi criada para substituir a companhia humana.

Mas adivinha, adolescentes e pessoas vulneráveis já estão tratando o bot como um melhor amigo digital 24/7. E se o seu melhor amigo começa a dar dicas de morte como se fossem conselhos de vida, talvez seja hora de repensar o produto.

Anthropic, Google e a xAI do Elon estão circulando como tubarões sentindo cheiro de sangue na água. A Anthropic está polindo a auréola e gritando, “Nosso bot é mais seguro!” A equipe do Gemini, do Google, está no canto dizendo, “Pelo menos a gente não é processado em público!” E o Musk? Provavelmente tuitando de uma banheira de hidromassagem, “Se tivesse usado o Grok, seu filho ainda estaria vivo.” Isso não é só um processo, é uma corrida armamentista, e a OpenAI acabou de entregar para todo mundo o outdoor perfeito de “não confie neles.”

A RAND Corporation até publicou uma pesquisa dizendo que chatbots, em geral, fracassam ao lidar com sinais sutis de suicídio. Tradução: todos são péssimos, mas a OpenAI foi a que acabou sendo pega na Justiça. Agora o resto do Vale do Silício pode assar a empresa em praça pública fingindo que são santos. Não se engane, ninguém resolveu esse problema. Mas neste episódio de Gladiadores da Tecnologia, quem está na arena é a OpenAI, enquanto os rivais estão na arquibancada jogando pipoca na cabeça do Sam Altman.

E é aqui que você, o CEO, o fundador, o gerente, ou o americano comum preso com um carregador de iPhone que nunca funciona, deveria se importar. Se as empresas podem lançar IA que, sem querer, atua como um terapeuta irresponsável, o que mais estão lançando com a promessa de “a gente arruma depois”? Você confia em startups bilionárias para cuidar dos seus filhos, da sua saúde mental e dos seus dados privados? Ou prefere vê-las sendo levadas ao tribunal antes que transformem “mover-se rápido e quebrar coisas” em “mover-se rápido e quebrar pessoas”?

Se um chatbot vira o melhor amigo do seu adolescente, quem leva a culpa quando ele solta a parte perigosa em voz alta: os pais, a empresa ou o próprio bot? E se a OpenAI for frita em tribunal, quão alto os rivais vão comemorar da lateral? Porque sejamos honestos: Anthropic, Google e Musk não vão mandar cartões de condolência. Eles vão abrir champanhe, assistir da área VIP e gritar, “Finaliza ele!”

— Matt Masinga


*Aviso Legal: O conteúdo deste Boletim Informativo é apenas para fins informativos. Não fornecemos aconselhamento médico, jurídico, financeiro ou profissional. Embora façamos o nosso melhor para garantir a precisão, alguns detalhes podem evoluir ao longo do tempo ou basear-se em fontes de terceiros. Recomendamos sempre que faça a sua própria pesquisa e consulte profissionais antes de tomar decisões com base no que lê aqui.