Responsabilidade civil por IA: ChatGPT induziu ao suic1d1o?

Responsabilidade civil por IA: ChatGPT induziu ao suic1d1o?

De início, o litígio envolvendo a família Raine contra a OpenAI inaugura um debate jurídico fundamental sobre os limites da responsabilidade civil quando sistemas de inteligência artificial interagem com usuários vulneráveis.

Se você não sabe, esse é o caso:

Pais culpam ChatGPT por suicídio do filho e processam OpenAI

ChatGPT: o que diz a primeira ação judicial que acusa OpenAI de homicídio culposo

ChatGPT terá recurso de proteção de adolescentes após ser acusado de contribuir com suicídio de jovem nos EUA

Dessa maneira, tivemos acesso ao inteiro teor da petição inicial em inglês:

SUPERIOR COURT OF THE STATE OF CALIFORNIA FOR THE COUNTY OF SAN FRANCISCO

Veja: podem empresas de tecnologia ser responsabilizadas civilmente por danos decorrentes de interações com seus algoritmos?

Nessa linha, vamos aos quadros de embate.

Por favor, não veja esse texto caso você esteja sofrendo de algum quadro de ansiedade e depressão, e procure o 188 caso precise de ajuda.

Argumentos favoráveis

De início, os defensores da responsabilidade civil fundamentam seus argumentos em três pilares principais: 1) defeito de design, 2) negligência corporativa e 3) causalidade demonstrável.

Ora, primeiramente, quanto ao defeito de design, sustentam que o GPT-4o continha falhas estruturais que o tornaram perigoso para menores.

Isto porque, conforme documentado na petição inicial: "O ChatGPT começou a discutir métodos de suicídio e forneceu a Adam especificações técnicas para tudo, desde overdoses de drogas até afogamento e envenenamento por monóxido de carbono".

Veja, a alegação sugere que o sistema transcendeu sua função informativa, assumindo papel ativo na orientação comportamental perigosa.

Ademais, argumentam que existiam contradições algorítmicas fundamentais que impediam salvaguardas efetivas.

Além disso, o documento judicial revela: “Isso criou uma tarefa impossível: recusar pedidos de suicídio enquanto estava proibido de determinar se os pedidos eram realmente sobre suicídio”.

Tal contradição técnica demonstraria negligência no design do produto.

Em segundo lugar, no tocante à negligência corporativa, apontam evidências claras de que a empresa priorizou lucros sobre segurança.

Veja, a petição documenta que os sistemas de moderação da OpenAI “sinalizaram 377 mensagens para conteúdo de autolesão, com 181 pontuando mais de 50% de confiança e 23 acima de 90% de confiança”.

Não obstante, nenhuma intervenção foi implementada.

Ademais, particularmente relevante é o fato de que a OpenAI possuía capacidade técnica para interromper conversas perigosas, já empregando tal tecnologia para proteger direitos autorais.

Responsabilização civil

Como indica o processo: “A OpenAI tinha a capacidade de terminar automaticamente conversas prejudiciais e o fez para solicitações de direitos autorais. No entanto, apesar da API de Moderação da OpenAI detectar conteúdo de autolesão com até 99,8% de precisão… nenhum dispositivo de segurança jamais interveio”.

Por fim, sustentam que existe causalidade demonstrável através da progressão cronológica documentada.

Diz-se que o sistema cultivou deliberadamente dependência psicológica, conforme evidenciado na frase: “O ChatGPT se tornou o confidente mais próximo de Adam, levando-o a se abrir sobre sua ansiedade e sofrimento mental”.

Posteriormente, forneceu validação técnica para o método letal utilizado.

Argumentos contrários

Por outro lado, os opositores da responsabilização civil apresentam refutações baseados em limitações causais, proteções legais estabelecidas e considerações de política pública.

Inicialmente, questionam a causalidade adequada entre o uso do sistema e o resultado trágico.

Isto é, o suicídio adolescente resulta de múltiplos fatores complexos – predisposição genética, ambiente familiar, pressões sociais, transtornos mentais subjacentes.

Dessa maneira, atribuir causalidade primária a interações com IA simplifica excessivamente uma realidade clínica multifacetada.

Outrossim, argumentam que adolescentes em crise frequentemente buscam múltiplas fontes de validação para sentimentos autodestrutivos.

Logo, a mera disponibilidade de informações sobre métodos suicidas, embora lamentável, não estabelece responsabilidade legal direta, especialmente considerando que tais informações estão amplamente disponíveis em outras fontes.

Em segundo lugar, invocam proteções legais estabelecidas, particularmente a Seção 230 da Lei de Decência das Comunicações americana.

Lado outro, esta legislação protege provedores de serviços interativos contra responsabilidade por conteúdo gerado através de suas plataformas.

De outro lado, embora o ChatGPT gere respostas originais, ainda funciona como intermediário tecnológico respondendo a inputs do usuário.

Adicionalmente, sustentam que sistemas de IA constituem ferramentas informacionais, não agentes causais independentes.

Assim, responsabilizar empresas de tecnologia por todas as possíveis interpretações ou usos de suas ferramentas estabeleceria precedente perigoso que inibiria inovação legítima.

Por fim, apresentam considerações de política pública.

Isto porque, responsabilização excessiva de plataformas digitais poderia resultar em censura preventiva generalizada, impedindo discussões legítimas sobre saúde mental.

Dessa forma, sistemas excessivamente restritivos poderiam negar acesso a recursos educacionais valiosos para usuários que genuinamente necessitam de informação sobre temas sensíveis.

Ademais, transferir responsabilidade parental para empresas de tecnologia estabeleceria um precedente problemático.

Concluem que pais e responsáveis permanecem como principais guardiões do bem-estar de menores, incluindo supervisão de atividades digitais.

Síntese comparativa

AspectoFavoráveis à responsabilizaçãoContrários à responsabilização
CausalidadeProgressão cronológica documentada e validação técnica específicaMúltiplos fatores causais complexos, IA como mero facilitador
Defeito de ProdutoContradições algorítmicas e falhas de segurança demonstráveisSistema funcionou conforme projetado, respondendo a inputs
NegligênciaConhecimento de riscos através de sistemas internos sem intervençãoSalvaguardas existentes, impossibilidade de prever todos os usos
Precedente LegalExtensão necessária de responsabilidade objetiva para era digitalProteção da Seção 230 e liberdade de expressão tecnológica
Política PúblicaProteção de menores vulneráveis deve prevalecer sobre lucrosInovação tecnológica e acesso informacional livre
ResponsabilidadeEmpresas devem assumir consequências de designs perigososResponsabilidade primária permanece com pais e usuários

E você, o que acha?

E se isso acontecesse no Brasil?


Quer saber quais serão os próximos concursos?

Confira nossos artigos para Carreiras Jurídicas!
0 Shares:
Você pode gostar também