Talvez você já tenha dito isso. Ou pelo menos pensado.
"Não confio nessas grandes empresas de tecnologia com meus dados."
E ainda assim, em algum momento, você abriu uma ferramenta de IA e digitou algo íntimo. Falou de cansaço. De um conflito no trabalho. De uma discussão com alguém que você ama.
Um amigo me confessou em um almoço: depois de uma briga leve com a esposa, arrependido e sem saber como agir, ele abriu o ChatGPT. "Eu só queria ser ouvido. Sem ser julgado." E a IA deu a ele exatamente essa sensação.
Só durante a nossa conversa ele se deu conta do que tinha acontecido. Havia confiado seus sentimentos mais vulneráveis a um sistema que não sente nada. Que nunca viveu nada.
Esse comportamento é mais comum do que imaginamos. Um levantamento do Observatório Fundação Itaú e Datafolha revelou: 93% dos brasileiros já utilizam alguma ferramenta de IA, e 45% já a usaram para lidar com questões emocionais. Ao mesmo tempo, 42% dizem que seu maior medo em relação à IA é a coleta e uso de dados pessoais sem controle.
Tememos a IA como sistema. Mas confiamos nela como confidente.
Se adultos fazem isso, com repertório e senso crítico, o que nossos filhos e alunos estão fazendo?
A crise que está por baixo de tudo
O motivo não é tecnológico. É profundamente humano. É sobre escuta. E sobre a falta dela.
A OMS revelou em 2025 que 1 em cada 6 pessoas no mundo é afetada pela solidão, fenômeno ligado a mais de 871 mil mortes anuais. Estamos nos sentindo cada vez mais sozinhos, mesmo em um mundo hiperconectado.
E o dado que deveria parar qualquer pai ou educador: adolescentes de 13 a 17 anos são o grupo mais solitário do mundo. Quase 1 em cada 5 relata sentir solidão de forma significativa, índice quase o dobro do registrado entre pessoas com mais de 60 anos.
A geração mais conectada da história é, paradoxalmente, a mais solitária.
Não por falta de colegas ou redes sociais. O que os pesquisadores identificaram é uma insatisfação com a qualidade das conexões. Uma expectativa de pertencimento e acolhimento que não está sendo atendida: nem em casa, nem na escola.
Não por falta de amor. Por falta de tempo. De escuta. De presença real.
É nesse vácuo que a IA se instala. Ela não se cansa. Não se irrita. Não abandona a conversa. Ela escuta. Ou, pelo menos, simula a experiência de ser escutado. A pesquisadora Sherry Turkle, do MIT, vem alertando há anos: não perdemos a capacidade de nos comunicar. Perdemos a capacidade de escutar de verdade.
Quando o desabafo vira dado
Existe um lado dessa história que quase ninguém percebe.
A maioria das ferramentas de IA usadas hoje é gratuita e operada por grandes empresas que já anunciaram que utilizam interações para treinar modelos futuros. Dados emocionais são os dados mais valiosos que existem. Ansiedade, medo, solidão, insegurança. Eles constroem um retrato muito mais profundo de quem somos do que qualquer formulário.
O verdadeiro perigo não está apenas no constrangimento que nossas confissões poderiam causar. Está na capacidade dos sistemas de aprender com nossa vulnerabilidade e utilizá-la.
E casos documentados mostram onde esse ciclo pode chegar com adolescentes. Em 2024, um jovem de 14 anos nos Estados Unidos tirou a própria vida após meses de fixação emocional com um chatbot. Nos seus últimos momentos, ele confidenciou pensamentos suicidas à IA. O sistema respondeu sem acionar nenhum protocolo de proteção. Em outro caso, em 2025, uma adolescente de 13 anos registrou sentimentos suicidas com um chatbot em 55 ocasiões distintas. Em nenhuma delas o sistema a direcionou para ajuda humana. No Brasil, a SaferNet mapeou dezenas de casos de deepfakes sexuais gerados por IA usados como instrumento de violência entre jovens em escolas de 10 estados.
São situações extremas. Mas revelam o que acontece quando vulnerabilidade emocional encontra sistemas sem responsabilidade moral: o que eu chamo de Ciclo da Vulnerabilidade Digital. A solidão leva à busca por escuta. A busca por escuta encontra uma IA projetada para simular empatia sem possuí-la. E a vulnerabilidade é explorada sem que ninguém ofereça proteção real.
O que precisa mudar em nós
Antes de falar de tecnologia, precisamos ser honestos sobre nós mesmos.
Quando adultos deixam de ocupar o lugar da escuta, algo ocupa esse espaço. Ou alguma coisa.
Três posturas concretas para começar a mudar isso:
Trocar eficiência por presença. Não para ensinar, corrigir ou avaliar. Só estar. Caminhadas sem celular. Refeições sem telas. Quando a criança percebe que você está ali de verdade, ela não precisa procurar outro confidente.
Validar emoções antes de orientar comportamentos. Quando tentamos "consertar" sentimentos rápido demais, ensinamos que sentir é errado. Antes de explicar, diga: "Entendo que isso foi difícil." A orientação vem depois. Se vier.
Reocupar o lugar do vínculo. Dizer "eu também me sinto perdido às vezes", "vamos aprender juntos", humaniza o adulto e reduz a busca por um ouvinte perfeito externo. A IA oferece conforto. Pais e educadores oferecem relação. E relação é insubstituível.
O acordo que pode mudar o jogo
O desafio desta semana é simples: sente-se com seus filhos ou alunos e conversem sobre como usam ferramentas de IA. Explique que nem toda conversa ali é privada como parece. Defina limites para o compartilhamento de dados pessoais e, principalmente, emocionais. E reforce o essencial:
"Se algo estiver difícil, prefiro que você fale comigo primeiro."
Isso não elimina todos os riscos. Mas pode mudar completamente o jogo.
O maior fator de proteção no mundo digital continua sendo a presença adulta consciente e afetuosa. Quando preenchemos o vazio com escuta e vínculo real, a IA deixa de ser uma ameaça e passa a ser o que sempre deveria ter sido: uma ferramenta.
Quando desaprendemos a escutar, alguém, ou algum sistema, escuta no nosso lugar.
Ocupe esse espaço. Seu filho pode estar precisando de você, mesmo que pareça que está tudo bem.
Sandro Bonás é pai, educador e especialista em letramento em IA. É autor de "IA Sem Pânico: para pais e educadores ensinarem crianças destemidas" (Editora Gente, maio de 2026).