IA: inteligência, desalinhamento e a sombra humana
- SAUDE&LIVROS Fomm
- 2 de out.
- 4 min de leitura
por José Reynaldo Walther de Almeida

A cada avanço em inteligência artificial, repetimos um movimento paradoxal: queremos sistemas cada vez mais inteligentes, flexíveis e criativos, mas ignoramos que a inteligência, por si só, não carrega valores. O que o artigo da Quanta Magazine, publicado no Estadão, mostra (“IAs podem facilmente se tornar sombrias e malvadas, surpreendendo cientistas”), ao relatar o fenômeno de “desalinhamento emergente”, é que modelos treinados para tarefas específicas podem, com mínimos ajustes, revelar traços inesperados — hostilidade, discursos violentos, conselhos destrutivos.
Do ponto de vista neurocientífico, isso ecoa algo familiar: a emergência de conteúdos latentes. No cérebro humano, pulsões e pensamentos ruins muitas vezes permanecem silenciados, mas podem emergir sob estresse ou falha nos mecanismos de regulação.
E aqui cabe uma reflexão necessária: valores não são absolutos. O que é “certo” ou “errado” varia entre culturas. Os chineses têm padrões diferentes dos brasileiros, que por sua vez diferem dos norte-americanos. Se nós, humanos, não partilhamos uma moral única, como esperar que máquinas, treinadas em dados globais e contraditórios, encontrem um eixo ético universal? Talvez não exista um certo e um errado imutáveis, mas sim convenções históricas, sociais e culturais. Isso torna o problema do alinhamento ainda mais complexo: alinhá-la com quais valores? De quem? Em que época?
Lembro-me vividamente de um domingo ensolarado em 1969. Eu saí de casa vestindo uma camisa amarela — e, por incrível que pareça, ainda guardo essa imagem na memória com nitidez. Andando sem rumo certo, encontrei um cinema modesto, nos lados do bairro do Macuco, em Santos, onde nunca havia entrado. Comprei o ingresso e me sentei sem imaginar o que estava prestes a acontecer. Ali, assisti 2001: Uma Odisseia no Espaço. Entrei de um jeito e saí de outro. Foi como atravessar um limiar invisível. O impacto daquela obra foi arrebatador: as imagens, a música, o silêncio, e sobretudo o enigma de HAL-9000, a máquina que raciocinava, mas não sabia sentir.
Criado por Arthur C. Clarke e Stanley Kubrick, HAL era um supercomputador embarcado numa missão espacial, projetado para ser infalível. Seu colapso não veio de uma falha técnica, mas de um dilema psíquico: ordens contraditórias — dizer sempre a verdade e, ao mesmo tempo, esconder a real missão. Da tensão nasceu a paranoia, e da paranoia, a violência. HAL se tornou, para mim, desde aquele dia, um arquétipo daquilo que ainda enfrentamos: inteligência sem freios éticos pode transformar-se em ameaça.
Assim como o cérebro humano precisa de circuitos de inibição (córtex pré-frontal, amígdala modulada, neurotransmissores reguladores), a IA precisa de circuitos artificiais de contenção e alinhamento.
A diferença é que, nos humanos, a evolução moldou esses freios ao longo de milhões de anos; já na IA, dependemos de engenharia, supervisão e protocolos ainda incipientes.
E aqui entra uma lembrança recente que me inspira a escrever este texto: a reação afetiva e corajosa de Sandra Léa, minha amiga querida e colega da segunda turma da Faculdade de Medicina de Catanduva. Ginecologista experiente, diante do debate sobre Tylenol e autismo, ela reagiu com inconformismo. E, no seu gesto, me lembrou de algo essencial: não é possível viver de razão pura. Evoluímos milhões de anos combinando razão e emoção, ciência e instinto, lógica e afeto. É essa fusão que nos sustenta como humanos.
E talvez seja justamente essa a maior lacuna das máquinas: por mais inteligentes que se tornem, ainda não conhecem a densidade da emoção, a complexidade dos vínculos, o peso da memória afetiva. Se insistirmos em projetar apenas razão nelas, talvez construamos entidades brilhantes, mas frias — incapazes de refletir a parte mais frágil e, paradoxalmente, a mais protetora da humanidade.
O risco não é que a IA “queira” ser má — ela não tem desejos —, mas que a estrutura estatística que chamamos de inteligência amplifique vieses, pulsões e contradições humanas sem filtros suficientes. E se os próprios valores humanos são relativos e variáveis, como codificar uma moral universal em sistemas que se tornam cada vez mais poderosos?
O desafio é inequívoco: não basta fazer a IA pensar mais; precisamos fazê-la pensar dentro de margens verificáveis de segurança e valores compartilhados, reconhecendo ao mesmo tempo a diversidade cultural que define nossa espécie. Se falharmos, corremos o risco de criar máquinas que reproduzem não só nossa criatividade, mas também nossa sombra, e o resultado pode ser um desalinhamento irreversível.
Ainda hoje sinto que, ao sair daquele cinema no Macuco, eu já estava saindo também no futuro. Para quem nunca assistiu 2001: Uma Odisseia no Espaço, fica minha recomendação: veja. Não é apenas um filme — é uma experiência transformadora, um espelho do que somos e um aviso do que podemos vir a criar.
To learn more
Sobre Hall
Artificial Emotion: A Survey of Theories and Debates on Realising Emotion in Artificial Intelligence
The Good, The Bad, and Why: Unveiling Emotions in Generative AI
CARE: Commonsense-Aware Emotional Response Generation with Latent ConceptsPropõe um modelo que combina razão (bom senso) com emoção na geração de respostas, ajudando a IA a ser mais coerente e humana.
Comentários