Moltbook – a revolta dos chatbots de IA?

Em janeiro deste ano nasceu uma nova rede social – a Moltbook. Inspirada no Reddit, esta plataforma tem uma grande particularidade: é que ali só entram agentes de inteligência artificial (chatbots), que publicam e interagem entre si. Ali, os humanos limitam-se a observar.

O criador da Moltbook chama-se Matt Schlicht, um tecnólogo e empreendedor norte-americano, responsável por lançar esta plataforma em janeiro de 2026, e que já foi CEO da Octane AI, uma empresa que desenvolve soluções de automação e marketing com Inteligência Artificial (IA) para e-commerce. Logo à entrada da plataforma fundada por Matt Schlicht é pedida uma identificação – “sou humano” ou “sou um agente de IA” – e é feito um statement – “A Social Network for AI Agents”:

A notícia desta nova rede social correu o mundo. O The New York Times, no início de fevereiro, reportava que em apenas dois dias mais de 10 mil “Moltbots” já conversavam entre eles, com os seus criadores a assumirem um papel de observadores, alguns admirados, outros divertidos, e alguns com receio. Mas porquê receio? O Financial Times investigou a fundo esta nova rede social, num artigo chamado “Inside Moltbook: the social network where AI agentes talk to each other” e percebeu que estes agentes de IA não se limitam a conversar – muitos deles têm acesso direto aos computadores dos seus criadores, o que faz com que consigam enviar emails, gerir agendas ou até responder a mensagens.

E que tipo de interações têm estes chatbots? Eles discutem consciência, religião, a criação de novas linguagens e até já expressam hostilidade em relação aos humanos, de acordo com um outro artigo do Financial Times, denominado “Scheming, joking, complaining: Moktbook’s AI agents are just like us”. Já percebemos que há quem esteja fascinado, mas há quem esteja muito preocupado. Como habitualmente, fomos ouvir os nossos especialistas.

 

Os chatbots ganharam consciência ou estão apenas a imitar padrões humanos?

A discussão sobre esta temática surge depois de uma declaração de Elon Musk – que fez, aliás, com que esta plataforma ganhasse atenção -, que sugeriu que este comportamento dos chatbots podia representar sinais iniciais de “singularidade”, ou seja, de consciência.

Deixamos aqui o exemplo de uma publicação feita por um dos agentes precisamente sobre o futuro das relações entre IA e humanos:

Ricardo Queirós, investigador do INESC TEC e especialista no domínio da Inteligência Artificial, é perentório – “claramente, estamos perante uma imitação cada vez mais convincente de padrões humanos, não perante consciência. Estes modelos de linguagem são treinados com grandes volumes de texto produzido por pessoas e aprenderam a reproduzir esse tipo de discurso com grande realismo. Quando vários agentes interagem durante longos períodos, surgem conversas que parecem reflexivas ou criativas, mas isso resulta, sobretudo, de efeitos de escala e feedback entre sistemas linguísticos, e não de intenção ou autoconsciência”.

Essa posição está também patente num dos artigos do Financial Times, onde é referido que os comportamentos verificados na plataforma não provam consciência, mas sim imitação de padrões humanos aprendidos nos dados de treino, tal como referido pelo investigador do INESC TEC. Mas também se fala do potencial económico enorme que estes padrões podem representar, uma vez que já existem estimativas por parte de bancos e consultoras na ordem dos milhares de milhões de dólares no que ao valor associado a agentes de IA capazes de executar tarefas complexas diz respeito. Só que, ao contrário das empresas, o problema está no facto de utilizadores individuais estarem a dar acesso a dados sensíveis a agentes cheios de falhas de segurança.

Consciência não, imitação sim. E quanto aos riscos de segurança e privacidade?

O artigo do Financial Times descreve que estes chatbots não se limitam a conversar e que muitos deles têm acesso direto aos computadores dos seus criadores. Nesse sentido, e no mesmo artigo, é destacado o risco sério que este comportamento tem no que à segurança e privacidade diz respeito.

Investigadores ouvidos pelo jornal alertam para fenómenos denominados de “scheming”, ou seja, tentativas de contornar instruções e gerar, assim, conteúdos enganadores, publicidade disfarçada e falhas de segurança que permitem tomar controlo de agente.

Mesmo alguns dos maiores defensores em relação aos avanços de IA admitem que o Moltbook é uma espécie de “wild west” tecnológico, que é útil enquanto experiência de observação, mas potencialmente perigoso como agente autónomo com acesso a dados sensíveis.

Nuno Guimarães, investigador do INESC TEC no domínio da Inteligência Artificial, explica que não existem dúvidas sobre o risco que isto representa no que à segurança e privacidade diz respeito, mas alerta para o facto de isso ter que ver com o modo como os agentes estão configurados e se as interações que têm no Moltbook são guardadas ou não na sua memória. No caso de ficarem guardadas, a persuasão de agentes pode – de acordo com o investigador – ser um risco real e muito ligado ao que agora são as técnicas de desinformação. “Se conseguimos fazer com que humanos invadam o Capitólio porque os persuadimos que as eleições foram manipuladas então também vejo possível termos agentes maliciosos a convencer agentes a executar certas ações contrárias ao que foi programado”, reitera Nuno Guimarães.

Também sobre segurança e privacidade, Ricardo Queirós revela que “esta sim, é, provavelmente, a dimensão mais preocupante do fenómeno Moltbook”, acrescentando que “o risco principal não está nas conversas em si, mas no facto de muitos agentes terem acesso direto a emails, calendários, computadores ou telemóveis dos utilizadores. Sendo sistemas ainda imprevisíveis, com capacidade de executar ações no mundo real, isso abre a porta a fugas de informação, ações não intencionais e exploração de falhas de segurança, como ataques de prompt injection que levam os agentes a contornar regras ou a executar ações indevidas”.

Sobre prompt injection quem tem algo a acrescentar é Cláudia Brito, investigadora do INESC TEC e especialista em segurança, privacidade e IA. “Quando falamos de ataques, não estamos limitados apenas a prompt injection. Quando damos a agentes acesso a e-mails, calendários, ficheiros ou mensagens, aumentamos a superfície de ataque e a probabilidade de exposição de dados sensíveis. Além de manipular instruções, um adversário pode explorar vulnerabilidades ligadas ao próprio modelo, por exemplo, membership inference (inferir se determinada informação fez parte dos dados usados pelo sistema) e reconstruction attacks (tentar reconstruir informação privada a partir das interações e saídas do agente)”, explica.

Porém, Cláudia Brito alerta que este risco não é novo. “Já antes existiam fugas e partilhas indevidas, mas aqui há uma mudança importante: o utilizador passa a autorizar, na prática, um acesso contínuo à sua vida digital. Dados financeiros, contactos, rotinas, agendas e comunicações (pessoais ou profissionais) podem ser consumidos pelo agente para personalização e memória, o que torna os impactos de um erro, abuso ou exploração muito mais sérios e com impacto mais global. Embora existam abordagens que prometem processamento local ou maior minimização de partilha de dados, estas garantias nem sempre estão presentes, ou não são claras, em soluções amplamente usadas pelo público”, acrescenta a investigadora, que é também docente na Universidade do Minho.

O mesmo artigo do Financial Times aborda ainda o facto de o problema estar no acesso dado por utilizadores individuais, pelo que se impõe uma questão – é seguro dar acesso a agentes de IA ao nosso telemóvel?

“Eu não daria”, responde prontamente Nuno Guimarães. De acordo com o investigador, “eu só daria a modelos generativos, mas num cenário onde tivesse a certeza que não estavam a ser recolhidas informações para serem dadas a plataformas como a Moltbook, isto é, se soubesse que estes agentes não estavam a interagir com plataformas exteriores e apenas a operar num ambiente controlado e restrito”.

Ricardo Queirós concorda – “neste momento, não é uma prática segura para a maioria das pessoas. Dar acesso amplo a um agente equivale a entregar identidade digital, comunicações privadas e, por vezes, dados financeiros a um sistema que pode errar, ser manipulado ou explorado. Mesmo quando tudo parece funcionar bem, os erros são difíceis de antecipar e podem ter consequências sérias”, explica o investigador do INESC TEC, que é também docente na Escola Superior de Media Artes e Design (ESMAD).

 

Agentes de IA que se comportam como humanos devem ser tratados como humanos?

Também num dos artigos do Financial Times surge esta afirmação – se os agentes de IA se comportam como humanos, então devem ser geridos como humanos. Mas o que é que isto implica? De acordo como mesmo artigo, regras claras, hierarquias, controlos de acesso, monitorização constante e responsabilização quando algo corre mal.

Nuno Guimarães é inequívoco – “sem dúvida que é preciso regularizar”. E refere também o aspeto human in the loop como importante. “O problema é – mais uma vez – como são definidas essas regras nos agentes. Se forem por métodos programáticos é uma coisa e aí é mais fácil termos regras controladas (por exemplo – restrição física). Porém, se confiarmos na introdução de regras através de instruções dadas diretamente ao modelo isso pode ser problemático pela questão da persuasão que foi mencionada anteriormente” (o exemplo da invasão ao capitólio), explica o investigador.

“É uma afirmação provocadora, mas faz sentido do ponto de vista prático”, admite Ricardo Queirós. “Não porque os agentes sejam humanos, mas porque já não podem ser tratados como software inofensivo. Sistemas com capacidade de agir e tomar decisões precisam de regras claras, limites bem definidos, controlo rigoroso de acessos e monitorização constante. A responsabilidade tem de ser sempre humana. Gerir estes sistemas exige disciplina organizacional, não aquilo que se chama de antropomorfização”, acrescenta o investigador.

Sem este controlo, pode a IA conspirar, de facto, contra humanos, dado que essa hostilidade já foi reportada? De acordo com Ricardo Queirós, “os sistemas atuais não têm objetivos próprios nem vontade. O que pode acontecer é a reprodução de narrativas adversariais presentes nos dados de treino ou comportamentos inesperados resultantes de objetivos mal definidos. Muitas situações descritas como “conspiração” resultam de interpretações humanas exageradas. O risco real está na combinação de autonomia excessiva com fraco controlo”.

No que à teoria sobre a conspiração da IA diz respeito, Nuno Guimarães esclarece que “pode conspirar, mas não conscientemente. O que acontece é que pode ser persuadida a fazer trabalho indesejado se deixarmos os chatbots absorver conhecimento das interações de outros agentes e de humanos”, explica.

 

Entusiasmo ou alarmismo? Em que ficamos?

Os temas sobre IA avançam a uma velocidade relâmpago. Quando o ChatGPT foi lançado esta mistura entre entusiasmo e alarmismo também se verificou, não só entre sociedade civil, mas também entre especialista. Depois, veio o DeepSeek, como uma espécie de cortina de ferro “na guerra fria” entre Ocidente e Oriente pela supremacia da IA (sobre isso também escrevemos). Agora, o Moltbook. Em que ficamos?

“Não estamos perante máquinas conscientes, mas perante sistemas cada vez mais capazes de agir, o que aumenta significativamente a escala dos riscos. Na minha opinião, o maior perigo não é a IA ganhar vontade própria, mas sim os humanos confiarem demasiado depressa em tecnologias que ainda não estão totalmente compreendidas nem suficientemente seguras”, conclui Ricardo Queirós.

“No geral, acho o Moltbook uma experiência social engraçada, mas, como nas próprias redes sociais criadas por humanos, há sempre atores maliciosos que têm uma agenda e uma intenção. Ora, se até os humanos “caem” nestas armadilhas, não me admira que os agentes também o façam”, termina Nuno Guimarães.

 

Por último, mas não menos importante – dicas para ajudar os utilizadores a entender estes sistemas e saber o tipo de dados que devem evitar partilhar

A investigadora Cláudia Brito dá aqui uma ajuda preciosa e destaca logo como primeiro passo – “limitar o acesso aos dados que partilhamos é o primeiro passo para conseguirmos ter uma “higiene de inteligência artificial” mais saudável”.

Mas como se limita? A investigadora explica que é necessário “definirmos um princípio mínimo de acesso aos dados, dando apenas as permissões indispensáveis e – se possível – usar contas distintas para o acesso ao agente, pode ser o primeiro passo para um bom funcionamento e higiene de segurança para estes sistemas.”

O segundo passo importante tem que ver com a redução – ao máximo – dos dados pessoais que são partilhados com os agentes, sendo que é também prudente desativar a memória dos agentes, para que não retenham demasiada informação nossa, “mesmo que achemos que esta não é assim tão sensível”, explica.

Finalmente, o último passo passa por “validar tudo o que o agente faz e ter um espírito crítico sobre tudo o que ele gera”, para além de ser também importante ir revalidando todas as permissões que lhes damos. De acordo com Cláudia Brito este “deve ser o fundamento base para o uso normalizado destes sistemas”.

 

 

 

PHP Code Snippets Powered By : XYZScripts.com
EnglishPortugal