Chatbots e Big Data: Como a inteligência artificial está transformando a prevenção e o tratamento do HIV
Na 13ª Conferência da Sociedade Internacional de Aids sobre Ciência do HIV (IAS 2025), realizada em Kigali, Ruanda, a inteligência artificial (IA) esteve no centro das atenções como uma promessa para o futuro da prevenção e do tratamento do HIV. Especialistas apresentaram iniciativas que usam big data, chatbots e modelos de linguagem para ampliar o acesso a informações, fortalecer vínculos com os usuários e desafogar os sistemas de saúde — mas também alertaram para os riscos da exclusão digital e da reprodução de desigualdades.
“A inteligência não está só nos dados, mas no que fazemos com eles”, afirmou Solange Baptiste, diretora executiva do ITPC (Coalizão Internacional para Preparação em Tratamento). Segundo ela, a IA pode identificar surtos, otimizar cadeias de suprimentos e prever interrupções nos serviços, o que se torna ainda mais urgente diante dos cortes no financiamento internacional. “O big data deve nos permitir ver o invisível. Mas dados sem pessoas são apenas ruído.”
Essa perspectiva de centralidade comunitária permeou as apresentações que mostraram como a IA pode ser aplicada de maneira ética e eficaz. Um dos exemplos apresentados foi o Coach Mpilo, um chatbot via WhatsApp desenvolvido na África do Sul. A ferramenta responde dúvidas enquanto as pessoas aguardam resultados de testes de HIV, esclarece questões sobre carga viral e ajuda a preencher lacunas durante e após consultas médicas, que muitas vezes são rápidas demais para acolher todas as preocupações dos pacientes.
Segundo Shawn Malone, diretor de projetos da Population Services International, esse tipo de solução também alivia a pressão sobre profissionais de saúde e fornece informações confiáveis em larga escala. “É uma forma de atender melhor ao usuário, mas também aos prestadores de serviços e aos governos”, afirmou.
IA com escuta ativa: Aimee e o cuidado empático
Um dos destaques da conferência foi a apresentação de Aimee, uma assistente virtual criada para adolescentes e jovens mulheres sul-africanas entre 16 e 24 anos. Desenvolvida pela empresa Audere com base em modelos de linguagem como ChatGPT e Gemini, a ferramenta foi construída em parceria com as próprias usuárias, gerando mais de 30 mil mensagens em poucos meses e fidelizando 40% dos usuários.
“Aimee foi pensada como uma amiga disponível para conversar sobre tudo aquilo que você não quer perguntar em voz alta”, explicou Rouella Mendonça, diretora de Produtos de IA da Audere. Disponível pelo WhatsApp, Aimee responde questões sobre PrEP, sexualidade, relacionamentos e violência de gênero — sempre com empatia. Uma das usuárias chegou a compartilhar pensamentos suicidas na terceira conversa.
Segundo Mendonça, o diferencial de Aimee está na escuta ativa, no uso progressivo de linguagem e na construção de confiança ao longo do tempo. “A confiança não é imediata. É com o tempo que a pessoa revela o que realmente está enfrentando.” A cada conversa, o sistema adapta suas respostas com base no estado emocional do usuário, podendo despriorizar informações e focar em acolhimento. Protocolos rigorosos garantem encaminhamento imediato em situações de risco, como ideação suicida ou violência sexual.
Os dados revelam que a ferramenta ajuda a superar barreiras. Usuárias relataram se sentir mais à vontade para falar com Aimee sobre temas delicados do que com enfermeiros. E o impacto vai além do diálogo: cerca de um quarto das pessoas que interagiram com a IA aderiram a serviços como testagem de HIV, contracepção, PrEP e apoio social.
No Canadá, MARVIN aprende a reconhecer sofrimento
Outro projeto apresentado foi o MARVIN, um chatbot canadense voltado à autogestão do HIV. Desenvolvido por pesquisadores da Politécnica de Montreal, o robô teve de ser ajustado após dificuldades em interpretar mensagens com insultos ou expressões de sofrimento psíquico. Em sua primeira versão, MARVIN pedia apenas para que o usuário reformulasse a frase, sem oferecer ajuda.
Com um novo modelo, o chatbot passou a identificar com mais precisão sinais de automutilação, insultos e mensagens com conteúdo depressivo, alcançando taxas de acerto de até 95%. A próxima etapa é treinar o sistema para detectar sintomas de depressão e ansiedade, permitindo que se torne um aliado mais sensível e proativo no cuidado de pessoas que vivem com HIV.
O risco da exclusão e dos vieses
Apesar dos avanços promissores, especialistas também chamaram atenção para os riscos. Um dos questionamentos mais contundentes feitos durante a conferência dizia respeito à possibilidade de que sistemas de IA silenciem temas como aborto, identidades trans e racismo, com base em filtros ou vieses presentes nos dados de treinamento.
Solange Baptiste foi enfática ao alertar sobre a chamada “pobreza de dados” — a ausência de informações sobre populações marginalizadas nos sistemas de coleta de dados. “Se não incluirmos a experiência vivida, a IA vai apenas acelerar os pontos cegos que já existem nos nossos sistemas. Vamos ter ferramentas brilhantes, mas que reforçam desigualdades.”
A diretora do ITPC reforçou que o desenvolvimento dessas tecnologias deve envolver as próprias comunidades afetadas. “Não basta que a IA funcione. Ela precisa ouvir. E, acima de tudo, precisa servir.”