Ciência e tecnologia

Antrópicos vitórias que decidem o treinamento de IA em processo de direitos autorais, mas devem enfrentar julgamento em livros piratas

Em um caso de teste para a indústria de inteligência artificial, um juiz federal decidiu que a empresa de IA antropia não violou a lei, treinando seu chatbot claude em milhões de livros protegidos por direitos autorais.

Mas a empresa ainda está no gancho e agora deve ser julgada sobre como adquiriu esses livros, baixando -os de “bibliotecas de sombra” on -line de cópias piratas.

O juiz distrital dos EUA, William Alsup, de São Francisco, disse em uma decisão apresentada na segunda -feira que a destilação do sistema de IA de milhares de obras escritas para poder produzir suas próprias passagens de texto qualificadas como “uso justo” sob a lei de direitos autorais dos EUA, porque foi “por essencialmente transformador.

“Como qualquer leitor que aspirasse a ser escritor, o Antrópico (AI Language Models) treinou em obras para não correr à frente e replicar ou suplantar – mas para virar um canto duro e criar algo diferente”, escreveu Alsup.

Mas, embora demitisse uma reivindicação importante feita pelo grupo de autores que processaram a empresa por violação de direitos autorais no ano passado, a Alsup também disse que o Anthrópico ainda deve ser julgado em dezembro por causa de seu suposto roubo de suas obras.

“Anthrópica não tinha direito a usar cópias piratas para sua biblioteca central”, escreveu Alsup.

Um trio de escritores-Andrea Bartz, Charles Graeber e Kirk Wallace Johnson-alegaram em seu processo no verão passado que as práticas do Anthropic representavam “roubo em larga escala” e que a empresa de São Francisco “busca lucrar com a expressão humana e a ingenuidade atrás de cada uma dessas obras”.

Os livros são conhecidos Para ser fontes importantes dos dados – em essência, bilhões de palavras cuidadosamente amarradas – necessárias para construir grandes modelos de linguagem. Na corrida para se superar no desenvolvimento dos mais avançados da AI Chatbots, várias empresas de tecnologia se voltaram para repositórios on -line de livros roubados que podem obter de graça.

Os documentos divulgados no Tribunal Federal de São Francisco mostraram as preocupações internas dos funcionários antropia sobre a legalidade do uso de sites piratas. Mais tarde, a empresa mudou sua abordagem e contratou Tom Turvey, o ex -executivo do Google encarregado do Google Books, uma biblioteca pesquisável de livros digitalizados que resistiu com sucesso anos de batalhas de direitos autorais.

Com sua ajuda, o Antrópico começou a comprar livros a granel, arrancando as ligações e examinando cada página antes de alimentar as versões digitalizadas em seu modelo de IA, de acordo com documentos do tribunal. Mas isso não desfazia a pirataria anterior, segundo o juiz.

“Esse antropal comprou mais tarde uma cópia de um livro que roubou anteriormente da Internet não o absolverá de responsabilidade pelo roubo, mas pode afetar a extensão dos danos estatutários”, escreveu Alsup.

A decisão pode estabelecer um precedente para processos semelhantes que se acumularam contra o concorrente antrópico Openai, fabricante de chatgpt, bem como contra meta plataformasa empresa controladora do Facebook e Instagram.

Anthrópica-fundada pelos ex-líderes de abertura em 2021-se comercializou como o desenvolvedor mais responsável e focado na segurança de modelos generativos de IA que podem compor emails, resumir documentos e interagir com as pessoas de maneira natural.

Mas o processo movido no ano passado alegou que as ações da Anthropic “zombaram de seus objetivos elevados”, construindo seu produto de IA em escritos pirateados.

Anthrópica disse na terça -feira que ficou satisfeita que o juiz reconhecesse que o treinamento de IA foi transformador e consistente com o “objetivo de direitos autorais de permitir a criatividade e promover o progresso científico”. Sua declaração não abordou as reivindicações de pirataria.

Os advogados dos autores se recusaram a comentar.

Fonte

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo