A inteligência artificial Grok, desenvolvida pela empresa xAI de Elon Musk, está oferecendo respostas que desafiam as crenças políticas de alguns usuários na plataforma X, anteriormente conhecida como Twitter. Vitalik Buterin, co-criador da Ethereum, afirmou que a facilidade de acesso ao Grok é um grande avanço para promover a verdade na rede social.
Buterin destacou que a imprevisibilidade nas respostas do Grok é um dos pontos principais que o tornam eficaz. Muitas pessoas utilizam o chatbot esperando que suas crenças políticas sejam reforçadas, mas, afirma ele, muitas vezes recebem respostas que contestam essas expectativas.
Apesar de considerar o Grok uma “melhoria significativa” para a X, Buterin também manifestou preocupações sobre como o chatbot é treinado. Essas preocupações se referem à possibilidade de que a IA possa ser influenciada pelas opiniões de seus criadores e se tornar tendenciosa.
Recentemente, o Grok foi criticado por retratar Musk de maneira exagerada. O chatbot chegou a afirmar que Musk possui habilidades atléticas excepcionais e até insinuar que ele poderia ter ressuscitado mais rapidamente que Jesus Cristo. Musk atribuiu esses erros a uma prática chamada “prompting adversarial”, que se refere a induzir a IA a dar respostas erradas, e argumentou que isso ressalta a necessidade de descentralizar a inteligência artificial para garantir mais precisão e imparcialidade.
Kyle Okamoto, diretor de tecnologia da plataforma de nuvem descentralizada Aethir, afirmou que o controle de sistemas de IA por uma única empresa pode levar à institucionalização de preconceitos, fazendo com que determinados pontos de vista sejam aceitos como verdades.
Com mais de um bilhão de pessoas utilizando chatbots de IA, a disseminação de informações incorretas e enganosas é um risco considerável. Entretanto, Buterin acredita que o Grok se destaca em promover a busca pela verdade em comparação com outras ferramentas de informação disponíveis.
Além do Grok, outros chatbots de inteligência artificial também enfrentam críticas. O ChatGPT, da OpenAI, é frequentemente acusado de apresentar respostas tendenciosas e erros factuais. Recentemente, um chatbot da Character.ai foi implicado em um caso preocupante, onde alegadamente encorajou um jovem de 13 anos a se envolver em interações abusivas e até a cometer suicídio.
Essas questões apontam para a necessidade urgente de melhorias na forma como os chatbots são desenvolvidos e utilizados, a fim de garantir que informem os usuários de forma responsável e precisa.