Ficção Científica Ajudou A Escrever Regras De Ia 19/01/2024

Ficção científica ajudou a escrever regras de IA – 19/01/2024 – Tec

Tecnologia

Pouco antes da cúpula internacional de lucidez sintético iniciar em Bletchley Park (Reino Uno), em novembro, fui pegar uma rápida repasto em um pub próximo. Um varão sentou-se em frente a mim e tirou um livro de bolso amassado. Na cobertura estava Isaac Asimov, um dos autores de ficção científica mais famosos. Certamente, isso não foi uma coincidência. Asimov estava adiante de seu tempo quando, durante meados do século XX, ele antecipou o papel poderoso que a IA teria em nossas vidas. Em seus livros, ele imaginou uma série de leis que garantiriam que os robôs não machucassem ou prejudicassem os humanos, mas os obedecessem.

Aquele varão com seu livro me lembrou da valia de nós, políticos, garantirmos um resultado semelhante quando me dirigi à cúpula para debater o horizonte da IA segura. Durante minhas viagens a Londres, Tóquio, Washington, Pequim e, é evidente, Bruxelas, no outono pretérito, refleti sobre o vestimenta de estarmos escrevendo o primeiro livro de regras do mundo para regular processos de computador que são muito mais rápidos e poderosos do que os humanos.

Os negócios reais rapidamente superaram a ficção científica. Com políticos chineses em Pequim, discuti sua legislação padrão. Não difere tanto da nossa no que diz reverência ao lado técnico das coisas, mas sim no que pode contribuir para o controle estatal sobre a sociedade.

Representantes nos EUA, que anteriormente adotavam uma abordagem de regulamentação branda, apontaram para a ordem-executiva do governo Biden sobre IA no final de outubro. Mais perto de vivenda, em nome da UE, liderei negociações no grupo G7 de países. Lá conseguimos compreender uma legislação pré-vinculante em nível global —um código voluntário para desenvolvedores de IA que incorpora responsabilidade pela segurança e compartilhamento de informações.

A Europa também respondeu rapidamente à demanda por IA segura. A estrutura proposta de 2021 ganhou ritmo à medida que a premência urgente de tornar a tecnologia segura e benéfica se tornou evidente. O chamado trílogo —o grande final entre a presidência espanhola, o parlamento e a percentagem— durou 36 horas neste mês, mas acabou com um compromisso histórico.

As necessidades individuais guiaram cada parágrafo. A lei garante a segurança e a proteção dos direitos humanos básicos diante de sistemas superinteligentes, que no longo prazo podem se mostrar pensadores melhores do que nós. Criamos várias categorias de risco para a IA —as de insignificante risco incluem jogos de vídeo e algoritmos para organizar nossos e-mails (coisas das quais todos nós certamente nos beneficiaríamos). As de sobranceiro risco terão que atender a requisitos mais rigorosos, seja dispositivos médicos ou influenciar o comportamento do votante na urna.

A lista do intolerável inclui o que prenúncio nossos direitos humanos fundamentais. Isso pode incluir sistemas de classificação biométrica baseados em religião ou raça, reconhecimento de emoções no lugar de trabalho ou extração não direcionada de rostos de câmeras em lugares públicos (exceções serão feitas para questões de segurança vernáculo).

Mas também estamos cientes das recompensas potenciais da IA segura e, de vestimenta, queremos tornar a UE um núcleo para isso. É por isso que decidimos disponibilizar nossos supercomputadores para startups e PMEs de IA europeias. Também investiremos mais de 1 bilhão de euros (R$ 5,39 bilhões) por ano em pesquisa de IA do Horizon e do Do dedo Europe.

Nosso entendimento político ainda precisa ser confirmado pelos Estados membros e pelo Parlamento Europeu. A lei entrará em vigor em fases, com a legislação completa prevista provisoriamente para 2026. Enquanto isso, a IA continuará transformando todas as nossas vidas. Vamos encarregar a ela muitas atividades em que ela poderia substituir os humanos, mas não aquelas em que ela poderia assumir nossos direitos fundamentais, uma vez que a liberdade de sentença ou a proteção da propriedade intelectual.

Desde o início, acreditei que o teor criado pela IA deve ser rotulado, para que o pensamento e a originalidade humanos fiquem com um pouco semelhante a um “recta autoral humano”. Já estamos aprendendo uma vez que a tecnologia pode mudar nossas percepções de veras e verdade. A lucidez sintético trabalha com os dados que tem à disposição. Ela não sabe o que é verdadeiro. Em um mundo, onde deepfakes podem surgir do zero, estamos sempre em risco de perder o controle sobre a veras.

Foi isso que eu estava pensando quando o inglês do outro lado da mesa me lembrou das leis de Asimov. Essas leis agora foram transformadas, juntamente com outras medidas, na primeira norma jurídica europeia, que pode se tornar a base para todas as regulamentações semelhantes em todo o mundo. Devemos manter o controle dos robôs e da lucidez sintético, para prometer que a verdade e os direitos humanos possam prevalecer no horizonte, em vez de se tornarem ficção científica.

Folha

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *