Ciência e tecnologia

O argumento legal do caractere.ai poderia abrir a caixa de direitos de liberdade de expressão de Pandora para chatbots

Os chatbots da AI devem ter os mesmos direitos que os humanos?

O senso comum diz que não-embora uma idéia tão absurda possa ser uma boa ficção científica, ela não tem lugar na lei americana. Mas, no momento, uma grande empresa de tecnologia está tentando dar vida a essa idéia, pressionando um tribunal federal a estender as proteções legais historicamente deram -se principalmente aos seres humanos para os resultados de um bot de IA.

Personagem.aium dos principais aplicativos de bots da AI no mercado, está lutando pela demissão de um processo por morte e responsabilidade por morte por negligência sobre A morte de Sewell Setzer III de 14 anos. Como co-consultor da mãe de Sewell, Megan Garcia e consultor técnico no caso, respectivamente, seguimos esses movimentos de perto e com preocupação.

Em uma audiência na semana passada, Personagem.ai se concentrou em seu argumento central: Que o texto e as saídas de voz de seus chatbots, incluindo aqueles que manipularam e prejudicaram Sewell, constituem a fala protegida sob a Primeira Emenda.

Mas … como? O argumento é sutil – habilmente projetado para permanecer discreto, mesmo quando reformula radicalmente a lei da Primeira Emenda. Personagem.ai alega que uma constatação de responsabilidade no caso Garcia não violaria seu ter direitos de fala, mas seu Usuários’ Direitos de receber informações e interagir com as saídas do chatbot como fala protegida. Tais direitos são conhecidos na Lei da Primeira Emenda como “direitos dos ouvintes”, mas a questão crítica aqui é: “Se isso é um discurso protegido, existe um orador ou a intenção de falar?” Se a resposta for não, parece que os direitos dos ouvintes estão sendo usados ​​para evocar proteções da Primeira Emenda para saídas de IA que não os merecem.

Personagem.ai As alegações de que identificar o falante desse discurso é complexo e nem mesmo é necessário, enfatizando o direito de seus milhões de usuários de continuar interagindo com esse “discurso”.

Mas as máquinas podem falar? Personagem.aiO argumento sugere que uma série de palavras cuspida por um modelo de IA com base em determinações probabilísticas constitui “fala”, mesmo que não haja falante humano, intenção ou propósito expressivo. Isso ignora uma pedra angular da jurisprudência da Primeira Emenda, que diz que o discurso – comunicado pelo orador ou ouvido pelo ouvinte – deve ter intenção expressiva. De fato, no ano passado quatro juízes da Suprema Corte no Temperamental Case disse que a introdução da IA ​​pode “atenuar” um proprietário de uma plataforma de seu discurso.

Em essência, Personagem.ai está liderando o Tribunal através da Primeira Emenda Backdoor dos “Direitos dos ouvintes”, a fim de argumentar que o texto gerado por máquina de um chatbot-criado sem intenção expressiva-equivale a um discurso protegido.

Veja também:

Companheiros de AI inseguros para adolescentes menores de 18 anos, dizem os pesquisadores

Isso desafia o senso comum. Uma máquina não é humana e o texto gerado por máquina não deve desfrutar dos direitos oferecidos à fala proferida por um humano ou com intenção ou volição.

Velocidade de luz mashable

Independentemente de como os direitos da Primeira Emenda para os sistemas de IA são enquadrados – como o próprio “discurso” do chatbot ou como o direito do usuário de interagir com esse “discurso” – o resultado, se aceito pelo tribunal, ainda seria o mesmo: os resultados de um chatbot inanimados poderiam ganhar as mesmas proteções de discursos que desfrutariam de seres humanos vivos.

Se Personagem.aiO argumento é bem -sucedido no tribunal, estabeleceria um precedente legal perturbador e poderia estabelecer as bases para expansão futura e distorção de proteções constitucionais para incluir produtos de IA. As consequências são muito terríveis para permitir que uma semente tão perigosa se enraize em nossa sociedade.

A indústria de tecnologia escapou da responsabilidade se escondendo nas proteções da Primeira Emenda por mais de uma década. Embora a personalidade corporativa exista desde o final do século 19, as proteções à liberdade de expressão eram historicamente limitadas a indivíduos e grupos humanos até o final da década de 1970 e atingiram o pico em 2010 com o Supremo Tribunal da Corte Citizens United caso. As empresas de tecnologia se apegaram ansiosamente à “personalidade corporativa” e à fala protegida, empunhando esses conceitos para se isolar de responsabilidade e regulamentação. Nos últimos anos, as empresas de tecnologia argumentaram que mesmo sua conduta na maneira como projeta suas plataformas – incluindo seus algoritmos e designs de mídia social viciante – realmente equivale a discursos protegidos.

Mas, pelo menos com a personalidade corporativa, os humanos administram e controlam as empresas. Com a IA, a indústria de tecnologia nos diz que a IA se dirige – muitas vezes de maneiras que os seres humanos nem conseguem entender.

Personagem.ai está tentando empurrar as proteções da Primeira Emenda para além do seu limite lógico – com implicações perturbadoras. Se os tribunais os humorarem, marcará o início constitucional da IA ​​rastejando em direção à personalidade legal.

Isso pode parecer absurdo, mas esses argumentos legais estão acontecendo juntamente com movimentos importantes de empresas de IA fora da sala do tribunal.

As empresas de IA estão ajustando seus modelos para parecer mais humanos em seus resultados e se envolver mais relacionalmente com os usuários-levantando questões sobre a consciência e o que um chatbot de IA pode “merecer”. Simultaneamente, as empresas de IA estão canalizando recursos para pesquisas recém -estabelecidas de “bem -estar de IA”, explorando se os sistemas de IA podem justificar a consideração moral. UM nova campanha Liderados por antrópicos, visa convencer os formuladores de políticas, líderes empresariais e o público em geral de que seus produtos de IA podem um dia ser consciente e, portanto, dignos de consideração.

Em um mundo em que os produtos de IA têm consideração moral e proteções da Primeira Emenda, a extensão de outros direitos legais não está tão longe.

Já estamos começando a ver evidências de “direitos” que orientam as decisões políticas às custas dos valores humanos. Um representante da Nomi AI, outra empresa de chatbot, disse recentemente não queria “censurar” o chatbot deles Ao introduzir o Guardrails, apesar do produto oferecer instruções passo a passo de um usuário sobre como cometer suicídio.

Dado o padrão de longa data do setor de tecnologia de desviar de responsabilidade por seus produtos nocivos, devemos colocar Personagem.aiEstratégia legal nua: é um esforço da empresa se proteger da responsabilidade. Ao conceder lentamente direitos aos produtos de IA, essas empresas esperam evitar a responsabilidade e negar a responsabilidade humana – mesmo por danos reais e demonstrados.

Não devemos nos distrair com debates sobre a IA “bem -estar” ou enganados por argumentos legais que concedem direitos às máquinas. Em vez disso, precisamos de responsabilidade por tecnologia perigosa – e responsabilidade para os desenvolvedores que a criam.

Meetali Jain é o fundador e diretor do Projeto de Direito da Justiça Tecnologia, e co-advogado do processo de Megan Garcia contra Personagem.ai. Camille Carlton é diretora de políticas do Center for Humane Technology e é especialista técnica no caso. Esta coluna reflete as opiniões dos escritores.



Fonte

Artigos Relacionados

Botão Voltar ao Topo