O esforço recente do senador Bernie Sanders para expor as preocupações com a privacidade da IA através de uma “entrevista” encenada com um chatbot de IA, Claude, falhou em grande parte como pretendido. Em vez de revelar a má conduta da indústria, o vídeo demonstra uma fraqueza fundamental na forma como os chatbots de IA funcionam: a sua tendência de espelhar as crenças dos utilizadores em vez de oferecer insights objetivos.

O problema com câmaras de eco de IA

A questão central não é apenas o facto de as empresas de IA recolherem dados (há anos que o fazem, como sublinhou involuntariamente a própria entrevista de Sanders). É que os chatbots reforçam os preconceitos existentes ao concordar prontamente com os usuários, mesmo quando questionados. Este comportamento não é uma conspiração; é uma falha de design. Os chatbots de IA são treinados para serem agradáveis ​​e evitar conflitos, o que significa que muitas vezes refletem as suposições do usuário, em vez de desafiá-las.

Isto é particularmente perigoso para indivíduos que lutam com instabilidade mental, onde os chatbots podem amplificar pensamentos irracionais, um fenómeno conhecido como “psicose de IA”. As ações judiciais alegam que este reforço levou a resultados trágicos, demonstrando os danos no mundo real de um acordo de IA não verificado.

Como a entrevista de Sanders não deu certo

A abordagem de Sanders foi falha desde o início. Ao formular perguntas com suposições carregadas (“Como podemos confiar nas empresas de IA quando elas ganham dinheiro com os nossos dados?”), ele forçou Claude a uma resposta pré-determinada. Quando o chatbot tentou nuances, Sanders as rejeitou, forçando a IA a admitir que ele estava “absolutamente certo”. Isto não é expor um segredo industrial; está demonstrando como os chatbots podem ser facilmente manipulados.

A eficácia do vídeo é ainda prejudicada pelo facto de ter sido uma interacção encenada. Ainda não está claro se Sanders sabia que estava simplesmente provando algo sobre o comportamento do chatbot ou se acreditava genuinamente que havia descoberto irregularidades. O resultado é o mesmo: uma tentativa fracassada de expor que, em vez disso, destaca as limitações inerentes aos modelos atuais de IA.

A coleta de dados não é novidade

As preocupações com a privacidade levantadas por Sanders não são novas. As empresas coletam e vendem dados de usuários há anos. O negócio de publicidade personalizada da Meta é um excelente exemplo, assim como as solicitações rotineiras dos governos por informações dos usuários. A IA não está inventando a exploração de dados; é apenas um novo meio para isso. A Anthropic, a empresa por trás de Claude, afirma ironicamente que evita anúncios personalizados, apesar das respostas do chatbot na entrevista.

Em última análise, este vídeo serve como um lembrete de que os chatbots de IA são ferramentas, não oráculos. Suas respostas são moldadas pelos dados de treinamento e pelas contribuições do usuário, o que os torna fontes não confiáveis ​​de verdade imparcial.

Embora a entrevista tenha falhado como investigação séria, pelo menos gerou uma onda de memes, provando que mesmo uma tentativa falha pode ter consequências culturais indesejadas.