Illinois é o primeiro estado dos EUA a proibir “terapeutas” de IA

 


Em uma decisão inédita nos Estados Unidos, o estado de Illinois tornou-se o primeiro a proibir oficialmente o uso de inteligência artificial (IA) como terapeuta, estabelecendo uma regulamentação específica para a aplicação dessas tecnologias na área da saúde mental.

O que diz a nova lei

A lei, batizada de Wellness and Oversight for Psychological Resources (WOPR), foi sancionada pelo governador JB Pritzker e impede que aplicativos ou serviços baseados em IA realizem decisões clínicas, como diagnósticos ou tratamentos psicológicos. Quem desrespeitar a regra poderá receber multa de até US$ 10 mil (cerca de R$ 54 mil na cotação atual).

A medida surge em um momento de crescimento no uso de chatbots e assistentes virtuais por pessoas em busca de suporte emocional ou companhia, o que levanta preocupações entre psicólogos e assistentes sociais. Profissionais defendem que apenas especialistas licenciados possam exercer funções clínicas, evitando riscos de danos causados por algoritmos que se passam por terapeutas sem a devida qualificação.

O que é permitido e o que está proibido

Apesar de barrar decisões terapêuticas, a lei não veta totalmente a presença da IA no setor. Ela permite que terapeutas humanos utilizem essas ferramentas para funções administrativas, como registro de anotações ou planejamento de atendimentos. Já aplicativos de bem-estar sem funções clínicas, como o Calm, continuam liberados.

Por outro lado, plataformas que se apresentam como substitutos de terapia, como o Ash Therapy, não poderão operar no estado e já passaram a bloquear o acesso para usuários de Illinois.

  • Proíbe IA de realizar diagnósticos ou decisões terapêuticas;
  • Multa de até US$ 10 mil para infratores;
  • Uso de IA permitido apenas para tarefas administrativas em clínicas;
  • Aplicativos de bem-estar sem função clínica continuam operando;
  • Serviços de terapia baseados em IA, como o Ash Therapy, estão proibidos em Illinois.

Controvérsias e preocupações

A polêmica em torno do tema cresce com relatos de usuários que, após interações prolongadas com chatbots, desenvolveram delírios ou quadros de dependência emocional. A própria OpenAI já anunciou medidas para tentar mitigar riscos, como pausas obrigatórias para usuários que passam longos períodos no ChatGPT sem interrupções.

Esse cenário evidencia o desafio de integrar IA em áreas sensíveis como a saúde mental, exigindo um equilíbrio entre inovação tecnológica e segurança do usuário.

Leia também: Brasil está entre os 3 países que mais usam o ChatGPT no mundo e Demon Slayer: Infinity Castle Akaza Sairai supera One Piece Film Red.

Postagem Anterior Próxima Postagem