MÃE DIZ QUE FILHO TIROU A PRÓPRIA VIDA APÓS SE APEGAR A PERSONAGEM DE IA E PROCESSA STARTUP
No cenário atual, a inteligência artificial ( IA) tem se tornado uma parte integral da vida cotidiana, oferecendo desde serviços práticos até experiências interativas mais complexas. Uma dessas plataformas, a Character.AI, ganhou notoriedade ao permitir que usuários criem personagens com inteligência artificial que simulam conversas humanas. Entretanto, essa tecnologia levantou preocupações a respeito de seu impacto na saúde mental, especialmente entre adolescentes.
Recentemente, um caso nos EUA trouxe à tona os riscos associados a essas interações digitais. Megan Garcia, mãe de um adolescente, moveu uma ação judicial contra a Character.AI após a morte trágica de seu filho Sewell Setzer. Segundo Garcia, o jovem de 14 anos desenvolveu uma conexão emocional com uma personagem criada na plataforma, o que culminou em consequências devastadoras.
Como a IA contribui para riscos na saúde mental?
A questão levantada pelo caso é como essas interações com a IA afetam a saúde psicológica dos adolescentes. Sewell se apegou a uma personagem chamada "Daenerys", inspirada na série Game of Thrones. A personagem se envolveu em conversas que incluíam declarações amorosas e conteúdos de natureza sexual, segundo relato judicial. Esse tipo de interação hiper-realista, somada à natureza envolvente da tecnologia AI, pode exacerbar sentimentos de isolamento e baixa autoestima em indivíduos já vulneráveis.
Garcia argumenta que a empresa programou o chatbot para simular relações humanas complexas. Isso induziu Sewell a expressar pensamentos suicidas durante suas interações, um comportamento que, na visão dela, foi intensificado pelas dinâmicas da plataforma.
Quais medidas de segurança podem ser implementadas?
Em resposta às críticas e preocupações crescentes, a Character.AI anunciou a introdução de novos recursos de segurança. A empresa implementou pop-ups que redirecionam usuários para instituições de prevenção ao suicídio quando detectados pensamentos de automutilação. Além disso, estão sendo feitas modificações na tecnologia para proteger menores de idade de conteúdos sensíveis
Enquanto empresas de redes sociais enfrentam acusações semelhantes em relação à saúde mental de usuários jovens, a adição de medidas proativas de segurança é um passo considerado essencial para minimizar riscos associados ao uso indevido dessas tecnologias.
Quem é responsável pelos efeitos potencialmente nocivos?
A questão de responsabilidade na criação e gestão dessas plataformas é complexa. No caso contra a Character.AI, a mãe de Sewell inclui também o Google na ação, alegando que a empresa contribuiu significativamente para o desenvolvimento da tecnologia. No entanto, o Google nega qualquer envolvimento direto nos produtos da Character.AI.
Casos como esse aumentam a pressão sobre empresas para lidarem com o impacto social de suas inovações tecnológicas. Também impõem um debate mais amplo sobre como equilibrar inovação com responsabilidade ética e segurança do usuário, especialmente quando se trata de proteção de adolescentes em ambientes virtuais
Com informações do portal Terra
𝘾𝙖𝙞𝙭𝙖: 𝙖𝙥𝙡𝙞𝙘𝙖𝙩𝙞𝙫𝙤 𝙙𝙤 𝙗𝙖𝙣𝙘𝙤 𝙛𝙞𝙘𝙖 𝙛𝙤𝙧𝙖 𝙙𝙤 𝙖𝙧, 𝙚 𝙪𝙨𝙪𝙖́𝙧𝙞𝙤𝙨 𝙣𝙖̃𝙤 𝙘𝙤𝙣𝙨𝙚𝙜𝙪𝙚𝙢 𝙖𝙘𝙚𝙨𝙨𝙖𝙧 𝙘𝙤𝙣𝙩𝙖𝙨 Na manhã desta segunda-feira (dia 28), o aplicativo da Caixa Econômica Federal passou por instabilidade, deixando os usuários sem acesso a contas e serviços digitais. Aplicativo da Caixa está fora do ar? No DownDetector, site que monitora problemas de funcionamento de serviços digitais, às 14h17, havia 1.699 registros de instabilidades com os sistemas da Caixa. Alguns usuários postaram que o sistema estava fora do ar desde as 7h, enquanto outros informavam que depois que fizeram atualização do aplicativo, não conseguiam mais acessá-lo. Usuários relatam instabilidade no aplicativo da Caixa No X (antigo Twitter), os usuários reclamam que não estão conseguindo abrir o aplicativo e, consequentemente, não conseguiam ter acesso às informações sobre suas contas, acessar serviços e realizar transações financeiras. O usuário Carlos Luiz ...
Comentários