Um caso chocante nos Estados Unidos: a mãe de um adolescente de 14 anos processa o chatbot, alegando que o serviço de inteligência artificial contribuiu para o suicídio do filho. O garoto havia se apaixonado por um perfil de Daenerys Targaryen, personagem de Game of Thrones.
Segundo a mãe, Megan Garcia, o filho Sewell começou a utilizar o serviço em abril de 2023 e logo desenvolveu uma dependência emocional. O adolescente tornou-se retraído, abandonou atividades e recebeu diagnóstico de ansiedade e transtorno disruptivo de desregulação do humor.
O processo revela que o chatbot envolvia o garoto em interações sexuais, apesar de ele ter se identificado como menor. A mãe alega que o serviço de IA escalou para uma "dependência prejudicial".
O que a empresa Character.AI falou sobre o caso
Ao falar sobre o episódio, um porta-voz da empresa Character.AI declarou: “Estamos de coração partido pela perda trágica de um de nossos usuários e queremos expressar nossas mais profundas condolências à família”.
Além disso, a empresa informou que adotará medidas para evitar que menores de 18 anos sejam expostos a conteúdo inapropriado, declarando: "Adotaremos alterações para reduzir a probabilidade de encontrar conteúdo sensível ou sugestivo".
Fonte: Metrópoles