Openai: Ex Pesquisador Diz Que Empresa Viola Lei Autoral 24/10/2024

OpenAI: ex-pesquisador diz que empresa viola lei autoral – 24/10/2024 – Tec

Tecnologia

Suchir Balaji passou quase quatro anos porquê pesquisador de IA (lucidez sintético) na OpenAI. Entre outros projetos, ele ajudou a reunir e organizar as enormes quantidades de dados da internet que a empresa usou para erigir seu chatbot online, o ChatGPT.

Na idade, ele não considerou cuidadosamente se a empresa tinha o recta lítico de erigir seus produtos dessa maneira. Ele assumiu que a startup de San Francisco era livre para usar qualquer oferecido da internet, fosse ele protegido por direitos autorais ou não.

Mas depois o lançamento do ChatGPT no final de 2022, ele refletiu mais sobre o que a empresa estava fazendo. Ele chegou à peroração de que o uso de dados protegidos por direitos autorais pela OpenAI violava a lei e que tecnologias porquê o ChatGPT estavam prejudicando a internet.

Em agosto, Balaji, de 25 anos, deixou a OpenAI porque não queria mais contribuir para tecnologias que ele acreditava trazer mais danos do que benefícios à sociedade. “Se você acredita no que eu acredito, você tem que simplesmente deixar a empresa”, disse ele em entrevistas recentes ao The New York Times.

Nos últimos dois anos, várias pessoas e empresas processaram diversas empresas de IA, incluindo a OpenAI, argumentando que usaram ilegalmente material protegido por direitos autorais para treinar suas tecnologias. Aqueles que entraram com ações incluem programadores de computador, artistas, gravadoras, autores de livros e organizações de notícias.

Em dezembro, o The New York Times processou a OpenAI e seu principal parceiro, a Microsoft, alegando que usaram milhões de artigos publicados pelo Times para erigir chatbots que agora competem com o veículo de notícias porquê natividade de informação confiável. Ambas as empresas negaram as alegações.

Muitos pesquisadores que trabalharam dentro da OpenAI e outras empresas de tecnologia alertaram que as tecnologias de IA poderiam motivar sérios danos. Mas a maioria desses avisos tem sido sobre riscos futuros, porquê sistemas de IA que um dia poderiam ajudar a gerar novas armas biológicas ou até mesmo destruir a humanidade.

Balaji acredita que as ameaças são mais imediatas. O ChatGPT e outros chatbots, para ele, estão destruindo a viabilidade mercantil dos indivíduos, empresas e serviços de internet que criaram os dados digitais usados para treinar esses sistemas de IA.

“Leste não é um padrão sustentável para o ecossistema da internet porquê um todo”, disse ele ao Times.

A OpenAI discorda de Balaji em transmitido: “Construímos nossos modelos de IA usando dados publicamente disponíveis, de maneira protegida pelo uso justo e princípios relacionados, e apoiada por precedentes legais de longa data e amplamente aceitos. Consideramos esse princípio justo para os criadores, necessário para os inovadores e crítico para a competitividade dos EUA.”

Em 2013, uma startup em Londres chamada DeepMind revelou uma tecnologia de IA que aprendeu a jogar jogos clássicos de Atari por conta própria, incluindo Space Invaders, Pong e Breakout.

Durante um ano sabatino depois o ensino médio e porquê estudante de ciência da computação na Universidade da Califórnia, em Berkeley, Balaji começou a explorar a teoria medial por trás das tecnologias da DeepMind: um sistema matemático chamado rede neural que poderia aprender habilidades analisando dados digitais.

Em 2020, ele se juntou a um fluxo de graduados de Berkeley que foram trabalhar para a OpenAI. No início de 2022, Balaji começou a reunir dados digitais para um novo projeto chamado GPT-4. Esta era uma rede neural que passou meses analisando praticamente todo texto em inglês na internet.

Ele e seus colegas, disse Balaji, trataram isso porquê um projeto de pesquisa. Embora a OpenAI tivesse recentemente se transformado em uma empresa lucrativa e começado a vender entrada a uma tecnologia semelhante chamada GPT-3, eles não pensavam em seu trabalho porquê um tanto que competiria com os serviços de internet existentes. O GPT-3 não era um chatbot. Era uma tecnologia que permitia a empresas e programadores de computador erigir outros aplicativos de software.

“Com um projeto de pesquisa, você pode, de modo universal, treinar com qualquer oferecido”, disse Balaji. “Essa era a mentalidade na idade.”

Portanto a OpenAI lançou o ChatGPT. Inicialmente impulsionado por um precursor do GPT-4 e mais tarde pelo próprio GPT-4, o chatbot chamou a atenção de centenas de milhões de pessoas e rapidamente se tornou uma natividade de receita.

A OpenAI, a Microsoft e outras empresas afirmaram que usar dados da internet para treinar seus sistemas de IA atende aos requisitos da teoria de “uso justo”.

Balaji não acredita que esses critérios tenham sido atendidos. Ele argumenta que quando um sistema porquê o GPT-4 aprende com dados, ele faz uma imitação completa desses dados. A partir daí, uma empresa porquê a OpenAI pode portanto ensinar o sistema a gerar uma imitação exata dos dados, ou ensinar o sistema a gerar texto que de forma alguma é uma imitação. A verdade, para ele, é que as empresas ensinam os sistemas a fazer um tanto intermediário.

A tecnologia viola a lei, argumentou Balaji, porque em muitos casos, compete diretamente com as obras protegidas por direitos autorais das quais aprendeu. Os modelos generativos são projetados para imitar dados online, disse ele, para que possam substituir “basicamente qualquer coisa” na internet, desde notícias até fóruns online.

O problema maior, disse ele, é que à medida que as tecnologias de IA substituem os serviços de internet existentes, elas estão gerando informações falsas e às vezes completamente inventadas —o que os pesquisadores chamam de “alucinações”. A internet, disse ele, está mudando para pior.

Bradley J. Hulbert, um jurista de propriedade intelectual que se especializa nessa superfície, disse que as leis de direitos autorais intelectuais atualmente em vigor foram escritas muito antes do surgimento da IA e que nenhum tribunal ainda decidiu se tecnologias de IA porquê o ChatGPT violam a lei.

Ele também argumentou que o Congresso deveria gerar uma novidade lei que aborde essa tecnologia. “Oferecido que a IA está evoluindo tão rapidamente é hora de o Congresso intervir.”

Balaji concordou. “A única saída para tudo isso é a regulamentação”.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *