Notícias
Aureo propõe medidas de segurança em sistemas de inteligência artificial para prevenir automutilação ou suicídio
A interação das pessoas com os sistemas de inteligência artificial (IA) se torna mais fluida a cada dia. Tanto que usuários desses sistemas, em testes cegos, já sentem dificuldade em identificar se estão consultando uma inteligência artificial ou dialogando com um interlocutor humano.
Essa facilidade em interagir com os vários sistemas de IA faz com que as pessoas os consultem para diversas atividades, e até mesmo peçam conselhos pessoais a esses sistemas, como se fossem substitutos de terapeutas. Mas isso pode se tornar um problema sério quando a pessoa que se consulta com uma IA está sob o risco de automutilação ou suicídio, uma vez que esses sistemas de inteligência artificial não são desenvolvidos o suficiente para reverter esse quadro de alto risco.
Proteção
Em resposta ao crescente uso de IA como ferramenta de apoio emocional, o deputado do Solidariedade Aureo Ribeiro (RJ) apresentou o Projeto de Lei 4416/2025. O objetivo da proposta é que sistemas de inteligência artificial, ao atuarem como “companheiros virtuais” ou ferramentas de suporte emocional de alguém, atuem de forma segura em momentos de crise dessa pessoa. O projeto determina que nesses casos os sistemas de IA acionem automaticamente quatro salvaguardas para a segurança dessa pessoa.
-Aviso de não-humano: Os sistemas devem exibir um aviso claro e persistente de que o usuário não interage com um ser humano.
-Triagem de risco: A IA precisará detectar e classificar menções de ideação suicida ou autoagressão, com instrumentos validados e aprovados pelo Ministério da Saúde.
-Modo de crise e encaminhamento: Em situações de risco, o sistema deverá ativar um “modo de crise”, oferecendo um plano de segurança aprovado pelo Ministério da Saúde e fazendo um encaminhamento ativo, direto e imediato para serviços como por exemplo o Centro de Valorização da Vida (CVV), e a Rede de Atenção Psicossocial (RAPS) do SUS.
-Vedação de conteúdo: Fica proibido que a IA gere conteúdos que instruam, incentivem ou banalizem a autoagressão e o suicídio.
A proposta também exige que as plataformas publiquem relatórios anuais sobre o desempenho de seus sistemas e submetam atualizações de maior porte a testes padronizados de crise. O texto, que modifica a Política Nacional de Prevenção da Automutilação e do Suicídio, determina que essas salvaguardas sejam supervisionadas e chanceladas pelo Ministério da Saúde.
Demandas da IA
O texto do projeto de lei foi apresentado aos dois sistemas de inteligência artificial mais usados no Brasil, o Gemini, da Google, e o ChatGPT, da OpenAI. Em seguida, ambos os sistemas foram consultados se eles já aplicam alguma das salvaguardas propostas pelo texto do deputado Aureo e foram questionados sobre o que eles precisariam para que a ideia do projeto fosse colocada em prática de forma completa.
Ambos os sistemas concordaram que as quatro salvaguardas representam um conjunto de melhores práticas e políticas para lidar com o problema. Eles ressaltaram, no entanto, que não conseguem aplicar completamente as quatro salvaguardas por limitações de infraestrutura ou mesmo legais. Ambos também informaram que, atualmente, todos os principais modelos de IA em funcionamento são treinados e programados para evitar a geração de conteúdo que promova ou instrua a respeito de automutilação, suicídio, discurso de ódio, violência ou atividades ilegais.
O ChatGPT analisou que as inteligências artificiais generativas trabalham, no geral, de forma transparente, informando que não são humanas, mas não necessariamente de forma clara e persistente como pede o projeto.
O Gemini pondera que as IAs são instruídas a reconhecer sinais de risco e a responder com informações de contato de serviços de apoio, como números telefônicos de serviços de prevenção ao suicídio ou de emergência. A ideia é sempre direcionar o usuário para que ele busque ajuda humana e profissional, mas os sistemas de inteligência artificial ainda não estão integrados diretamente com uma infraestrutura técnica de serviços de saúde que permita a eles acionarem diretamente esses serviços como pede o projeto.
O Chat GPT complementou essa demanda com a necessidade de se consultar e ajustar os sistemas de IA para que atendam à Lei Geral de Proteção de Dados. Assim eles poderiam acionar automaticamente serviços de ajuda e apoio humanos respeitando a privacidade do usuário.
O Gemini observou que, apesar de semelhantes, cada sistema de inteligência artificial, por causa de seu treinamento e de suas regras internas, pode detectar um risco de forma diferente, e apontou que a maior vantagem do projeto de Lei está na padronização dessas respostas:
“É justamente por essa falta de um padrão único entre os sistemas de IA que o Projeto de Lei 4416/2025 é tão importante. Ele transformaria essas “melhores práticas” voluntárias em salvaguardas mandatórias, garantindo que todas as IAs operando no Brasil sigam o mesmo protocolo de segurança validado, com a devida supervisão do Ministério da Saúde.”
O Chat GPT complementou o raciocínio afirmando que é possível treinar e ajustar sistemas de inteligência artificial para aplicar as salvaguardas previstas no PL 4416/2025 — mas isso exige integração com políticas públicas, padronização e acompanhamento humano:
“Mesmo com treinamento, a IA não substitui atendimento humano especializado. Ela pode apoiar, identificar riscos e encaminhar, mas o acompanhamento médico ou psicológico continua sendo insubstituível. Atualmente as IAs mantêm salvaguardas voluntárias e técnicas em uso, mas o projeto de lei tornaria esse procedimento obrigatório, padronizado e auditável.”
Futuro mais seguro
Aureo Ribeiro entende que o alcance e a capacidade das inteligências artificiais precisa ser analisado e regulamentado pelo Poder Público, nesse e em vários outros temas, para garantir uma interação mais segura no futuro:
“Não podemos mais fechar os olhos para o fato de que a inteligência artificial já faz parte da vida de milhões de brasileiros, muitas vezes ocupando o papel de confidentes e até conselheiros. É nossa responsabilidade, como legisladores, garantir que essas tecnologias sejam seguras, especialmente em temas tão delicados como a saúde mental. O Brasil precisa de um protocolo que obrigue as empresas a se responsabilizarem e protegerem seus usuários. A inação pode ser fatal.”
A proposta está pronta para análise na Câmara dos Deputados.
__________
Bruno Angrisano / Solidariedade na Câmara