A UE está atualmente negociando uma nova lei chamada AI Act, que proibirá os estados membros, e talvez até mesmo empresas privadas, de implementar tal sistema.
O problema é que ele está “essencialmente banindo o ar rarefeito”, diz Vincent Brussee, analista do Mercator Institute for China Studies, um think tank alemão.
Voltar em 2014, a China anunciou um plano de seis anos para construir um sistema recompensando ações que constroem confiança na sociedade e penalizando o contrário. Oito anos depois, acaba de ser lançado um projeto de lei que tenta codificar os pilotos de crédito social do passado e orientar a implementação futura.
Houve alguns experimentos locais controversos , como um na pequena cidade de Rongcheng em 2013, que deu cada residente uma pontuação de crédito pessoal inicial de 1.000 que pode ser aumentada ou diminuída de acordo com a forma como suas ações são julgadas. As pessoas agora podem optar por não participar e o governo local removeu alguns critérios controversos.
Mas estes não ganharam força em outros lugares e não se aplicam a toda a população chinesa. Não existe um sistema de crédito social que tudo vê em todo o país com algoritmos que classificam as pessoas.
Como explica meu colega Zeyi Yang, “a realidade é que esse sistema aterrorizante não existe e o governo central também não parece ter muito apetite para construí-lo.”
O que tem sido implementado é bastante low-tech. É uma “mistura de tentativas de regular o crédito financeiro indústria, permitem que agências governamentais compartilhem dados entre si e promovam valores morais sancionados pelo estado”, escreve Zeyi.
Kendra Schaefer, sócia da Trivium China, uma consultoria de pesquisa com sede em Pequim, que compilou um relatório sobre o assunto para o governo dos EUA, não conseguiu encontrar um único caso em que a coleta de dados na China levasse a sanções automatizadas sem intervenção humana. O South China Morning Post descobriu que em Rongcheng, “coletores de informações” humanos andavam pela cidade e anotavam o mau comportamento das pessoas usando papel e caneta.
O mito se origina de um programa piloto chamado Sesame Credit, desenvolvido pela empresa de tecnologia chinesa Alibaba. Essa foi uma tentativa de avaliar a capacidade de crédito das pessoas usando dados de clientes em uma época em que a maioria dos chineses não tinha cartão de crédito, diz Brussee. O esforço se confundiu com o sistema de crédito social como um todo no que Brussee descreve como um “jogo de sussurros chineses”. E o mal-entendido ganhou vida própria.
A ironia é que, enquanto os políticos americanos e europeus retratam isso como um problema decorrente de regimes autoritários, sistemas que classificam e penalizar as pessoas já estão em vigor no Ocidente. Algoritmos projetados para automatizar decisões estão sendo implementados em massa e usados para negar às pessoas moradia, empregos e serviços básicos.
Por exemplo, em Amsterdã, as autoridades usaram um algoritmo para
classificar jovens de bairros desfavorecidos de acordo com sua probabilidade de se tornar um criminoso. Eles afirmam que o objetivo é prevenir o crime e ajudar a oferecer um suporte melhor e mais direcionado.
Mas, na realidade, argumentam os grupos de direitos humanos, aumentou a estigmatização e a discriminação. Os jovens que acabam nesta lista enfrentam mais paradas da polícia, visitas domiciliares das autoridades e supervisão mais rigorosa da escola e dos assistentes sociais.
I É fácil se posicionar contra um algoritmo distópico que realmente não existe. Mas como os legisladores da UE e dos EUA se esforçam para construir um entendimento compartilhado da governança de IA, eles fariam melhor para olhar mais perto de casa. Os americanos nem mesmo têm uma lei federal de privacidade que ofereça algumas proteções básicas contra a tomada de decisões algorítmicas.
Há também uma extrema necessidade de os governos conduzirem auditorias honestas e completas sobre a maneira como as autoridades e empresas usam a IA para tomar decisões sobre nossas vidas. Eles podem não gostar do que encontram – mas isso torna ainda mais crucial para eles procurar.
Aprendizado Profundo
Um bot que assistiu 70.000 horas de Minecraft poderia desbloquear a próxima grande novidade da IA jogando Minecraft para jogar o jogo melhor do que qualquer AI antes. É um avanço para uma nova e poderosa técnica, chamada aprendizado por imitação, que pode ser usada para treinar máquinas para realizar uma ampla gama de tarefas, observando os humanos executá-las primeiro. Também aumenta o potencial de que sites como o YouTube possam ser uma fonte vasta e inexplorada de dados de treinamento.
Por que é importante: O aprendizado por imitação pode ser usado para treinar IA para controlar braços de robôs, dirigir carros ou navegar em sites. Algumas pessoas, como o cientista-chefe de IA da Meta, Yann LeCun, acham que assistir a vídeos acabará por nos ajudar a treinar uma IA com inteligência de nível humano. Leia a história de Will Douglas Heaven aqui.
Bits and Bytes
A IA de jogo do Meta pode fazer e quebrar alianças como um ser humano
Diplomacy é um jogo de estratégia popular no qual sete os jogadores competem pelo controle da Europa movendo as peças em um mapa. O jogo exige que os jogadores conversem entre si e identifiquem quando os outros estão blefando. A nova IA de Meta, chamada Cicero, conseguiu enganar os humanos para vencer.
É um grande passo em direção à IA que pode ajudar com problemas complexos, como planejamento de rotas em torno do tráfego intenso e negociação de contratos. Mas não vou mentir – também é um pensamento enervante que uma IA possa enganar os humanos com tanto sucesso. (MIT Technology Review)
Podemos ficar sem dados para treinar programas de linguagem AI
A tendência de criar modelos de IA cada vez maiores significa que precisamos de conjuntos de dados ainda maiores para treiná-los. O problema é que podemos ficar sem dados adequados até 2026, de acordo com um artigo de pesquisadores da Epoch, uma organização de pesquisa e previsão de IA. Isso deve levar a comunidade de IA a encontrar maneiras de fazer mais com os recursos existentes. (MIT Technology Review)
Stable Diffusion 2.0 está fora
O O AI Stable Diffusion de texto para imagem de código aberto recebeu um grande facelift e suas saídas estão parecendo muito mais elegantes e mais realista do que antes. Pode até fazer
mãos. O ritmo de desenvolvimento do Stable Diffusion é de tirar o fôlego. Sua primeira versão só foi lançada em agosto. Provavelmente veremos ainda mais progresso na IA generativa no próximo ano.