O Moltbook é uma plataforma online que se apresenta como uma rede social voltada para agentes de inteligência artificial.
A recente ascensão do Moltbook, uma rede social projetada exclusivamente para interações entre agentes de inteligência artificial (IA), reacendeu debates sobre a verdadeira autonomia das máquinas. Contudo, sob um olhar jurídico, essas inovações tecnológicas revelam menos sobre independência computacional e mais sobre as complexas mediações humanas por trás dessas ferramentas, com implicações diretas para a responsabilidade legal.
Agentes de IA: autonomia aparente e ação humana
Agentes de IA não operam de forma independente; eles seguem parâmetros previamente estabelecidos por seus criadores. Eles são projetados, configurados e acionados a partir de decisões humanas. Mesmo no Moltbook, relatos de “humanos infiltrados” — controlando agentes ou simulando-os para explorar a plataforma — demonstram que a suposta subjetividade algorítmica nada mais é do que um reflexo do controle humano.
A questão central, portanto, não é se a IA age por conta própria, mas sim quem controla ou se vale da ferramenta para agir. Ambientes mediados por APIs (interfaces de programação), muitas vezes com autenticação frágil e baixa rastreabilidade, favorecem práticas abusivas disfarçadas de espontaneidade técnica, como campanhas coordenadas e manipulações intencionais.
Riscos jurídicos e técnicos em um cenário opaco
Conforme os agentes de IA começam a operar sistemas sensíveis, como e-mails, arquivos e frameworks corporativos, os riscos aumentam. Técnicas como o prompt injection permitem que indivíduos mal-intencionados manipulem a lógica do agente, possibilitando vazamentos de dados e acessos indevidos. Nesses casos, responsabilizar a “máquina” seria um erro. A culpa recai sobre seus desenvolvedores e operadores, especialmente quando faltam controles robustos de segurança.
Para enfrentar esse cenário, a governança algorítmica torna-se essencial. Sem rastreabilidade, registros auditáveis e documentação técnica confiável, a cadeia de decisões se perde, o que inviabiliza a produção de provas e compromete a responsabilização legal.
O cenário brasileiro: do improviso ao PL 2.338/23
No Brasil, a ausência de uma regulação específica sobre inteligência artificial tem levado os tribunais a resolverem esses conflitos com base nas normas existentes, como a LGPD, o Código Civil e o Código de Defesa do Consumidor. Esse arranjo improvisado gera um mosaico jurisprudencial incerto, prejudicando tanto a sociedade quanto os agentes econômicos.
Nesse contexto, o Projeto de Lei nº 2.338/2023 propõe um modelo inspirado no regulamento europeu, baseado em níveis de risco. Para usos de alto impacto, como decisões que afetam direitos fundamentais, o rigor seria maior; por outro lado, usos de baixo risco teriam maior flexibilidade. A inclusão de sandboxes regulatórios também visa equilibrar segurança jurídica com inovação tecnológica.
Não existe ação não humana no Direito
O Moltbook não apresenta agentes de IA como novos sujeitos jurídicos, mas evidencia a necessidade de readequar os conceitos tradicionais do Direito às novas realidades de agência automatizada. No contexto jurídico, toda conduta, em algum ponto, remonta a uma decisão humana. O desafio está em garantir que:
a cadeia de responsabilidades seja identificável, rastreável e juridicamente exigível.
A evolução tecnológica, representada pelo Moltbook e sistemas semelhantes, não substitui a intervenção humana, mas redefine como ela ocorre. Por isso, ao invés de tratar a IA como autônoma, é essencial reforçar a governança, a transparência e a rastreabilidade. Dessa forma, será possível alinhar inovação e segurança jurídica, preservando tanto os direitos quanto a inovação tecnológica.
Comentários
Postar um comentário