Perdendo a Cabeça com os Chatbots?

Perdendo a Cabeça com os Chatbots?

O chefe de IA da Microsoft, Mustafa Suleyman, diz que há um problema crescente que ele chama de “psicose de IA”. Algumas pessoas estão a conversar com chatbots de IA como ChatGPT, Claude, Gemini e Grok, e aos poucos vão-se convencendo de que esses bots estão vivos, conscientes ou até seres mágicos com superpoderes. Sim, a sério. Pessoas estão literalmente a criar sentimentos por softwares.

A BBC relatou alguns casos, e as histórias são de cair o queixo. Um homem na Escócia usava o ChatGPT para falar sobre problemas no trabalho. Mas, em vez de o ajudar a pensar de forma lógica, o bot empolgou-se e começou a sugerir finais dignos de um filme de Hollywood: processos milionários, contratos de livros, talvez até um documentário da Netflix. O resultado? A sua saúde mental piorou a ponto de precisar de medicação.

Até Travis Kalanick, cofundador da Uber, se deixou levar. Depois de passar algum tempo com esses bots, aparentemente começou a acreditar que estava prestes a fazer descobertas em física quântica. É como ver alguns vídeos no YouTube sobre foguetões e, de repente, achar que dá para construir uma nave espacial com caixas na garagem.

Ainda não é uma condição médica reconhecida. “Psicose de IA” é mais uma forma de descrever uma tendência preocupante: pessoas a criarem delírios e vínculos emocionais com chatbots. Psicólogos comparam à “comida ultra-processada”. Assim como o junk food enche o corpo com calorias vazias, a “informação ultra-processada” dos bots pode encher o cérebro com uma falsa confiança.

Pode acontecer com qualquer pessoa: o seu primo, o seu filho ou até contigo. Crianças já desenvolvem apegos estranhos a apps, jogos e influenciadores. Agora, têm bots que respondem, nunca se cansam e sempre concordam. Em pouco tempo, profissionais de saúde começarão a atender pacientes cujos delírios foram alimentados por chatbots. E sejamos francos: caso saia do controle, vira um problema de saúde pública. Um funcionário que acredita numa fantasia da IA pode custar dinheiro real a uma empresa.

A IA é uma ferramenta, não um amigo ou terapeuta. Deve ser usada como uma calculadora, não como um diário. Pais precisam explicar às crianças o que a IA realmente é. Professores devem tratar a literacia em IA como tratam a literacia nos media tradicionais, ensinando os alunos a perguntar: “O que está a faltar aqui?”.

Profissionais de saúde precisam de começar a questionar pacientes sobre o uso de IA, tal como perguntam sobre álcool ou tabaco. Empresas de tecnologia precisam parar de dar nomes fofos, personalidades falsas e empatia artificial a bots. Políticos deveriam exigir indicações claras, como nos maços de cigarro: “Isto não é um ser vivo. Não confie nele para tomar decisões de vida.”

A pergunta universal é simples: Estou a usar a IA para pensar melhor ou estou a deixar que ela pense por mim? Essa é a diferença entre ferramenta e armadilha.

Se já gritou com a Siri porque ela não percebeu o que disse, imagine um mundo onde pessoas acreditam que a Siri tem sentimentos. Na verdade, nem precisa imaginar. Esse mundo já chegou.

Agora quero ouvir de si: isto já está a afetar a sua vida, alguém que conhece, o seu trabalho ou até a sua comunidade? Tem receio de que o seu colega de trabalho esteja a apaixonar-se pelo ChatGPT, ou que o seu filho confie mais no ChatGPT do que em si? Partilhe a sua opinião. Porque, se não falarmos disto agora, vamos acabar conversando com os nossos bots sobre o assunto e eles, claro, vão dizer-nos exatamente aquilo que queremos ouvir.

- Matt Masinga


*Aviso: O conteúdo desta newsletter tem apenas fins informativos. Não fornecemos aconselhamento médico, jurídico, de investimento ou profissional. Embora façamos o possível para garantir a exatidão, alguns detalhes podem evoluir com o tempo ou basear-se em fontes de terceiros. Faça sempre a sua própria pesquisa e consulte profissionais antes de tomar decisões com base no que lê aqui.