Em 2018, no Fórum Econômico Mundial em Davos, o CEO do Google, Sundar Pichai, tinha algo a dizer: “IA é provavelmente a coisa mais importante em que a humanidade já trabalhou. Eu penso nisso como algo mais profundo do que eletricidade ou fogo.” O comentário de Pichai foi recebido com uma boa dose de ceticismo. Mas quase cinco anos depois, parece cada vez mais presciente.
A tradução de IA agora é tão avançada que está prestes a superar as barreiras linguísticas na internet entre os línguas mais faladas. Os professores universitários estão arrancando os cabelos porque os geradores de texto de IA agora podem escrever redações tão bem quanto o aluno típico de graduação — facilitando a trapaça de uma forma que nenhum detector de plágio consegue truque. A arte gerada por IA é até vencedora de feiras estaduais. Uma nova ferramenta chamada Copilot usa aprendizado de máquina para prever e completar linhas de código de computador, trazendo a possibilidade de um sistema de IA que poderia se escrever um passo mais perto. O sistema AlphaFold da DeepMind, que usa IA para prever a estrutura 3D de quase todas as proteínas existentes, foi tão impressionante que a revista Science nomeou Revelação do ano de 2021 .
Você pode até ver no primeiro parágrafo desta história, que foi amplamente gerada para mim pelo modelo de linguagem OpenAI GPT-3.
Enquanto a inovação em outros campos tecnológicos pode parecer lenta – como qualquer um que esperasse pelo metaverso saberia — A IA está a todo vapor. O ritmo acelerado do progresso está alimentando a si mesmo, com
mais empresas investindo mais recursos no desenvolvimento de IA e no poder de computação.
Claro, entregar grandes setores de nossa sociedade a algoritmos de caixa-preta que mal entendemos cria um monte de problemas, que já começaram a ajudar a desencadear uma resposta regulatória em torno dos desafios atuais de discriminação e viés da IA. Mas, dada a velocidade do desenvolvimento no campo, já passou da hora de ir além de um modo reativo, onde abordamos apenas as desvantagens da IA quando elas estão claras e presentes. Não podemos apenas pensar nos sistemas de hoje, mas para onde toda a empresa está indo.
Os sistemas que estamos projetando são cada vez mais poderosos e cada vez mais gerais, com muitas empresas de tecnologia nomeando explicitamente seu alvo como inteligência geral artificial (AGI) — sistemas que podem fazer tudo o que um ser humano pode fazer. Mas criar algo mais inteligente do que nós, que pode ter a capacidade de nos enganar e enganar — e então apenas esperar não quer nos machucar — é um plano terrível. Precisamos projetar sistemas cujas partes internas entendamos e cujas metas possamos moldar para serem seguras. No entanto, nós atualmente não entendemos os sistemas que estamos construindo bem o suficiente para saber se estamos Nós os projetamos com segurança antes que seja tarde demais.
Existem pessoas trabalhando no desenvolvimento de técnicas para entender poderosos sistemas de IA e garantir que eles estarão seguros para trabalhar, mas agora, o estado do campo de segurança está muito atrás do investimento crescente em tornar os sistemas de IA mais poderosos, mais capazes e mais perigosos. Como disse o veterano programador de videogames John Carmack ao anunciar sua nova startup de IA apoiada por investidores, é “AGI ou busto , por meio da Ciência Louca!”
Esta ciência maluca em particular pode matar todos nós. Aqui está o porquê.
Computadores que podem pensar
O humano O cérebro é a máquina pensante mais complexa e capaz que a evolução já criou. É a razão pela qual os seres humanos – uma espécie que não é muito forte, não é muito rápida e não é muito resistente – ocupam o topo da cadeia alimentar planetária, crescendo em número a cada ano, enquanto tantos animais selvagens caminham para a extinção.
Faz sentido que, a partir da década de 1940, os pesquisadores do que viria a ser o campo da inteligência artificial começaram a brincar com uma ideia tentadora: E se projetássemos sistemas de computador por meio de uma abordagem semelhante ao funcionamento do cérebro humano? Nossas mentes são compostas de neurônios, que enviam sinais para outros neurônios por meio de sinapses conectivas. A força das conexões entre os neurônios pode crescer ou diminuir com o tempo. Conexões que são usadas com frequência tendem a se tornar mais fortes, e aquelas que são negligenciadas tendem a diminuir. Juntos, todos esses neurônios e conexões codificam nossas memórias e instintos, nossos julgamentos e habilidades – nosso próprio senso de identidade.
Então, por que não construir um computador dessa maneira? Em 1958, Frank Rosenblatt realizou uma prova de conceito: um modelo simples baseado em um cérebro simplificado, que ele treinou para reconhecer padrões. “Seria possível construir cérebros que se reproduzissem em uma linha de montagem e tivessem consciência de sua existência”
ele argumentou. Rosenblatt não estava errado, mas estava muito à frente de seu tempo. Os computadores não eram poderosos o suficiente e os dados não eram abundantes o suficiente para tornar a abordagem viável.
Não foi até a década de 2010 que ficou claro que essa abordagem poderia funcionar em problemas reais e não em problemas de brinquedo. Naquela época, os computadores eram 1 trilhão de vezes mais poderosos do que eram na época de Rosenblatt, e havia muito mais dados para treinar algoritmos de aprendizado de máquina.
Esta técnica — agora chamada de aprendizagem profunda — começou a superar significativamente outras abordagens para visão computacional, linguagem, tradução, previsão, geração e inúmeras outras questões. A mudança foi tão sutil quanto o asteróide que exterminou os dinossauros, pois os sistemas de IA baseados em redes neurais esmagaram todas as outras técnicas concorrentes em tudo, desde visão computacional para tradução para xadrez.
“Se se você deseja obter os melhores resultados em muitos problemas difíceis, deve usar o aprendizado profundo ”, disse Ilya Sutskever – cofundador da OpenAI, que produziu o modelo de geração de texto GPT-3 e o gerador de imagens DALLE-2, entre outros em 2019. O motivo é que os sistemas projetados dessa maneira se generalizam, o que significa que podem fazer coisas fora do que foram treinados para fazer. Eles também são altamente competentes, superando outras abordagens em termos de desempenho com base nos benchmarks que os pesquisadores de aprendizado de máquina (ML) usam para avaliar novos sistemas. E, acrescentou, “eles são escaláveis.”
O que “escalável” significa aqui é tão simples quanto significativo: coloque mais dinheiro e mais dados em sua rede neural – torne-a maior, gaste mais tempo treinando-a, aproveite mais dados – e faz melhor, e melhor, e melhor. Ninguém ainda descobriu os limites desse princípio, embora grandes empresas de tecnologia agora o façam regularmente execuções de treinamento multimilionárias de arregalar os olhos para seus sistemas. Quanto mais você coloca, mais você sai. É isso que impulsiona a energia ofegante que permeia tanto a IA no momento. Não é simplesmente o que eles podem fazer, mas para onde estão indo.
Se há algo que o modelo de geração de texto GPT-2 não pode fazer, o GPT-3 geralmente pode. Se o GPT-3 não puder, InstructGPT (
um lançamento recente , treinado para dar respostas mais úteis para os humanos do que o GPT-3 provavelmente pode. Houve algumas descobertas inteligentes e novas abordagens, mas, na maioria das vezes, o que fizemos para tornar esses sistemas mais inteligentes foi apenas torná-los maiores.
Uma coisa que definitivamente não estamos fazendo: entendê-los melhor. Com abordagens antigas de IA, os pesquisadores esculpiram cuidadosamente regras e processos que usariam para avaliar os dados que estavam obtendo, assim como fazemos com os programas de computador padrão. Com o aprendizado profundo, a melhoria dos sistemas não envolve necessariamente ou exige a compreensão do que eles estão fazendo. Frequentemente, um pequeno ajuste melhora o desempenho substancialmente, mas os engenheiros que projetam os sistemas não sabem por quê.
No mínimo, à medida que os sistemas ficam maiores, a interpretabilidade – o trabalho de entender o que está acontecendo dentro dos modelos de IA e garantir que eles persigam nossos objetivos, e não os deles – fica mais difícil. E à medida que desenvolvemos sistemas mais poderosos, esse fato passará de um quebra-cabeça acadêmico para uma enorme questão existencial.
Devemos ser claros sobre o que essas conversas fazem e não demonstram. O que eles não demonstram é que o GPT-3 é maligno e planeja nos matar. Em vez disso, o modelo de IA está respondendo ao meu comando e desempenhando – muito bem – o
papel de um sistema que é mau e conspirando para nos matar. Mas as conversas mostram que mesmo um modelo de linguagem bastante simples pode interagir comprovadamente com os humanos em vários níveis, produzindo garantias sobre como seus planos são benignos enquanto apresenta um raciocínio diferente sobre como seus objetivos prejudicarão os humanos.
Os modelos de linguagem atuais permanecem limitados. Elas falta
“senso comum” em muitos domínios, ainda comete erros básicos sobre o mundo que uma criança não faria e fará afirmar coisas falsas sem hesitar. Mas o fato de serem limitados no momento não é motivo para tranquilidade. Agora, bilhões de dólares estão sendo investidos para ultrapassar esses limites atuais. As empresas de tecnologia estão trabalhando arduamente no desenvolvimento de versões mais poderosas desses mesmos sistemas e no desenvolvimento de sistemas ainda mais poderosos com outros aplicativos, desde assistentes pessoais de IA até desenvolvimento de software guiado por IA.
A trajetória em que estamos é aquela em que tornaremos esses sistemas mais poderosos e mais capazes. Ao fazer isso, provavelmente continuaremos progredindo em muitos dos problemas atuais criados pela IA, como preconceito e discriminação, à medida que treinamos com sucesso os sistemas para não dizer coisas perigosas, violentas, racistas e de outra forma terríveis. Mas, por mais difícil que isso seja, fazer com que os sistemas de IA se comportem externamente pode ser muito mais fácil do que fazê-los realmente perseguir nossos objetivos e não mentir para nós sobre suas capacidades e intenções.
À medida que os sistemas se tornam mais poderosos, o impulso para soluções rápidas embutidas em sistemas que fundamentalmente não entendemos torna-se um perigo 1. Tais abordagens, Ajeya Cotra, analista de pesquisa de IA do Projeto de Filantropia Aberta argumenta em um relatório recente , “empurraria [uma IA sistema] para fazer com que seu comportamento pareça o mais desejável possível para … pesquisadores (inclusive em propriedades de segurança), enquanto desconsidera intencional e conscientemente sua intenção sempre que isso entrar em conflito com a maximização da recompensa.”
Em outras palavras, existem muitos incentivos comerciais para as empresas adotarem uma abordagem descuidada para melhorar o comportamento de seus sistemas de IA. Mas isso pode equivaler a sistemas de treinamento para impressionar seus criadores sem alterar seus objetivos subjacentes, que podem não estar alinhados com os nossos.
Qual é o pior que poderia acontecer?
Portanto, a IA é assustadora e apresenta grandes riscos. Mas o que a torna diferente de outras tecnologias emergentes poderosas, como a biotecnologia, que pode desencadear pandemias terríveis, ou armas nucleares, que podem destruir o mundo?
A diferença é que essas ferramentas, por mais destrutivas que possam ser, estão em grande parte dentro de nosso ao controle. Se eles causarem uma catástrofe, será porque escolhemos deliberadamente usá-los ou falhamos em impedir seu uso indevido por seres humanos malignos ou descuidados. Mas a IA é perigosa precisamente porque pode chegar o dia em que ela não estará mais sob nosso controle.
“A preocupação é que se criarmos e perdermos o controle de tais agentes, e seus objetivos são problemáticos, o resultado não será apenas danos do tipo que ocorre, por exemplo, quando um avião cai ou uma usina nuclear derrete — danos que, apesar de todos os seus custos, permanecem passivos”, Joseph Carlsmith, pesquisador analista do Open Philanthropy Project estudando inteligência artificial,
A conclusão de Carlsmith – que uma possibilidade muito real é que os sistemas que criamos irão assumir permanentemente o controle dos humanos, potencialmente matando quase todos os vivos – é bastante literalmente o material da ficção científica . Mas isso ocorre porque a ficção científica se inspirou no que os principais cientistas da computação vêm alertando desde o surgimento da IA - e não o contrário.
No famoso artigo onde ele apresentou seu teste homônimo para determinar se um sistema artificial é realmente “inteligente”, o pioneiro cientista de IA Alan Turing escreveu:
IJ Good, um matemático que trabalhou com Turing, chegaram às mesmas conclusões . Em um trecho das notas não publicadas que Good produziu pouco antes de morrer em 2009, ele escreveu: “por causa da competição internacional, não podemos impedir que as máquinas assumam o controle. … nós somos lemingues.” O resultado, ele observou, é provavelmente a extinção humana.
Como passamos de “sistemas de IA extremamente poderosos” para a “extinção humana”? “A principal preocupação [com a IA altamente avançada] não é a consciência emergente assustadora, mas simplesmente a capacidade de tomar decisões de alta qualidade”. Stuart Russell, um dos principais pesquisadores de IA do Centro de Inteligência Artificial Humana Compatível da UC Berkeley,
escreve.
Por “alta qualidade ”, ele quer dizer que a IA é capaz de alcançar o que deseja alcançar; a IA antecipa e evita interferências com sucesso, faz planos que terão sucesso e afeta o mundo da maneira pretendida. É exatamente para isso que estamos tentando treinar os sistemas de IA. Eles não precisam ser “conscientes”; em alguns aspectos, eles ainda podem ser “estúpidos”. Eles só precisam se tornar muito bons em afetar o mundo e ter sistemas de metas que não são bem compreendidos e não estão alinhados com os objetivos humanos (incluindo o objetivo humano de não se extinguir).
A partir daí, Russell tem uma descrição bastante técnica do que vai dar errado: “Um sistema que está otimizando uma função de n variáveis, onde o objetivo depende de um subconjunto de tamanho k
Portanto, um poderoso sistema de IA que está tentando fazer algo, embora tenha objetivos que não são precisamente os objetivos que pretendíamos que ele tivesse, pode fazer algo de uma maneira insondavelmente destrutiva. Isso não é porque odeia os humanos e quer que morramos, mas porque não se importou e estava disposto para, digamos, envenenar toda a atmosfera ou desencadear uma praga, se essa fosse a melhor maneira de fazer as coisas que estava tentando fazer. Como diz Russell: “Esta é essencialmente a velha história do gênio da lâmpada, ou do aprendiz de feiticeiro, ou do rei Midas: você obtém exatamente o que pede, não o que deseja.”
“Você provavelmente não é uma formiga má -hater que pisa em formigas por maldade”, escreveu o físico Stephen Hawking em um livro postumamente publicado em 2018, “mas se você está no comando de um projeto hidrelétrico de energia verde e há um formigueiro na região para ser inundado também ruim para as formigas. Não vamos colocar a humanidade no lugar dessas formigas.”
Adormecido ao volante
Os CEOs e pesquisadores que trabalham com IA variam enormemente em quanto eles se preocupam com questões de segurança ou alinhamento. (Segurança e alinhamento significam preocupações sobre o comportamento imprevisível de sistemas futuros extremamente poderosos.) Tanto o DeepMind do Google quanto o OpenAI têm equipes de segurança dedicadas a descobrir uma solução para esse problema – embora críticos da OpenAI dizem que as equipes de segurança carecem de poder interno e o respeito que eles precisam para garantir que sistemas inseguros não sejam desenvolvidos e que a liderança fique mais feliz em defender a segurança da boca para fora enquanto avança com sistemas que não são seguros.
Fundador da DeepMind, Demis Hassabis, em uma entrevista recente sobre a promessa e os perigos da IA, ofereceu uma nota de cautela. “Acho que muitas vezes, especialmente no Vale do Silício, existe esse tipo de mentalidade de hacker do tipo ‘vamos hackear e divulgar e ver o que acontece’. E acho que essa é exatamente a abordagem errada para tecnologias tão impactantes e potencialmente poderosas quanto a IA. … Acho que vai ser a coisa mais benéfica para a humanidade, coisas como curar doenças, ajudar com o clima, todas essas coisas. Mas é uma tecnologia de uso duplo – depende de como, como sociedade, decidimos implantá-la – e para que a usamos.”
Outros laboratórios líderes de IA são simplesmente céticos em relação à ideia de que há algo a preocupar em tudo. Yann LeCun, chefe da equipe de IA do Facebook/Meta, recentemente publicou um artigo descrevendo sua abordagem preferida para construir máquinas que podem “raciocinar e planejar” e “aprender tão eficientemente quanto humanos e animais”. Ele tem argumentou na Scientific American que as preocupações de Turing, Good e Hawking não são uma preocupação real: “Por que uma IA senciente iria querer dominar o mundo? Não seria.”
Mas enquanto permanecem as divisões sobre o que esperar da IA – e mesmo muitos dos principais especialistas são altamente incertos – há um consenso crescente de que as coisas podem ir muito, muito mal. Dentro uma pesquisa de verão de 2022 com pesquisadores de aprendizado de máquina, o entrevistado médio pensou que a IA tinha mais probabilidade de ser boa do que ruim, mas tinha um risco genuíno de ser catastrófica. Quarenta e oito por cento dos entrevistados disseram que achavam que havia 10% ou mais de chance de que os efeitos da IA fossem “extremamente ruins (por exemplo, extinção humana)”.
Vale a pena parar por um momento. Quase metade das pessoas mais inteligentes que trabalham com IA acredita que há uma chance de 1 em 10 ou mais de que o trabalho de sua vida acabe contribuindo para a aniquilação da humanidade.
Pode parecer bizarro, dadas as apostas, que a indústria foi basicamente deixada para se auto-regular. Se quase metade dos pesquisadores diz que há 10% de chance de seu trabalho levar à extinção humana, por que ele está ocorrendo praticamente sem supervisão? Não é legal para uma empresa de tecnologia construir uma arma nuclear por conta própria. Mas as empresas privadas estão construindo sistemas que elas mesmas reconhecem que provavelmente se tornarão muito mais perigosos do que as armas nucleares.
Além disso, enquanto uma parcela crescente de pesquisadores de ML – 69% na pesquisa acima – pensa que mais atenção deve ser dada à segurança da IA, essa posição não é unânime. Em uma dinâmica interessante, embora um tanto infeliz, as pessoas que pensam que a IA nunca será poderosa acabam se aliando a empresas de tecnologia contra Trabalho de segurança de IA e regulamentos de segurança de IA: o primeiro opondo-se aos regulamentos porque acham que é inútil e o último porque acham que isso os atrasará.
Ao mesmo tempo, muitos em Washington estão preocupados que desacelerar o progresso da IA dos EUA possa permitir que a China chegue lá primeiro , uma mentalidade da Guerra Fria que não é totalmente injustificada – a China é certamente pursu ing poderosos sistemas de IA, e sua liderança está ativamente envolvida em abusos dos direitos humanos – mas o que nos coloca em risco muito sério de apressar a produção de sistemas que estão perseguindo seus próprios objetivos sem o nosso conhecimento.
Mas à medida que o potencial da IA cresce, os perigos estão se tornando muito mais difíceis de ignorar. O ex-executivo do Google, Mo Gawdat, conta a história de como ele ficou preocupado com a IA geral assim: pesquisadores de robótica estavam trabalhando em uma IA que poderia pegar um bola. Depois de muitas falhas, a IA agarrou a bola e a ergueu para os pesquisadores, estranhamente humana. “E de repente percebi que isso é realmente assustador”, disse Gawdat. “Isso me congelou completamente. … A realidade é que estamos criando Deus.”
Para mim, o momento de compreensão – que isso é algo diferente, diferente das tecnologias emergentes que vimos antes – veio de uma conversa com o GPT -3, dizendo-lhe para responder às perguntas como uma pessoa extremamente inteligente e atenciosa, e observando suas respostas melhorarem imediatamente em qualidade.
Para Blake Lemoine, o excêntrico engenheiro do Google que se tornou denunciante quando passou a acreditar que o modelo de linguagem LaMDA do Google era senciente, foi quando o LaMDA começou a falar cerca de direitos e personalidade. Para algumas pessoas, é o chatbot Replika, cujos representantes de atendimento ao cliente estão cansados de ouvir que o os clientes pensam que seu Replika está vivo e senciente . Para outros, esse momento pode vir de DALL-E ou Difusão estável, ou os sistemas lançados no próximo ano, ou no próximo mês, ou na próxima semana que são mais poderosos do que qualquer um desses.
Por muito tempo, a segurança da IA enfrentou a dificuldade de ser um campo de pesquisa sobre um problema distante, e é por isso que apenas um pequeno número de pesquisadores estava tentando descobrir como torná-lo seguro. Agora, tem o problema oposto: O desafio está aqui, e não está claro se vamos resolvê-lo a tempo.
Sim, dou $ 120/ano Aceitamos cartão de crédito, Apple Pay e Google Pay. Você também pode contribuir através de