Desde então, a busca pela proliferação de modelos de linguagem cada vez maiores se acelerou, e muitos dos perigos sobre os quais alertamos, como a produção de texto odioso e desinformação em massa, continuam a se desdobrar. Apenas alguns dias atrás, a Meta lançou seu LLM “Galactica”, que pretende “resumir trabalhos acadêmicos, resolver problemas matemáticos, gerar artigos Wiki, escrever código científico, anotar moléculas e proteínas e muito mais”. Apenas três dias depois, a demonstração pública foi retirada depois que os pesquisadores geraram “artigos de pesquisa e wiki inscrições em uma ampla variedade de assuntos, desde os benefícios de cometer suicídio, comer vidro quebrado e anti-semitismo, até por que os homossexuais são maus.”
Esta corrida não parou em LLMs, mas mudou para modelos de texto para imagem como OpenAI DALL-E e StabilityAI Stable Diffusion, modelos que recebem texto como entrada e produzem imagens geradas com base nesse texto. Os perigos desses modelos incluem a criação de pornografia infantil, perpetuação de preconceitos, reforço de estereótipos e disseminação de desinformação em massa, conforme relatado por muitos pesquisadores e jornalistas. No entanto, em vez de desacelerar, as empresas estão removendo os poucos recursos de segurança que tinham na busca de se superarem. Por exemplo, a OpenAI restringiu o compartilhamento de rostos fotorrealistas gerados nas redes sociais. Mas depois que startups recém-formadas como a StabilityAI, que supostamente levantou US$ 101 milhões com uma enorme avaliação de US$ 1 bilhão , chamaram essas medidas de segurança de “paternalistic,” OpenAI removeu essas restrições.
Com fundação e financiamento de EAs institutos, empresas, grupos de reflexão e grupos de pesquisa em universidades de elite dedicados à marca de “Segurança de IA” popularizada pela OpenAI, estamos prestes a ver mais proliferação de modelos nocivos anunciados como um passo em direção à “AGI benéfica”. E a influência começa cedo: altruístas eficazes fornecem “subsídios para construção de comunidades” para recrutar nos principais campi universitários, com capítulos da EA desenvolvendo currículos e ministrando aulas sobre segurança de IA em universidades de elite como Stanford.
No ano passado, Anthropic, que é descrita como uma “empresa de segurança e pesquisa de IA” e foi fundada por ex-vice-presidentes de pesquisa e segurança da OpenAI,
arrecadou $ 704 milhões , com a maior parte de seu financiamento vindo de bilionários da EA como Talin, Muskovitz e Bankman-Fried. Um próximo workshop sobre “Segurança de IA” em NeurIPS, uma das maiores e mais influentes conferências de aprendizado de máquina do mundo, também é anunciada como sendo patrocinado pelo FTX Future Fund, instituição de caridade focada em EA de Bankman-Fried cuja equipe renunciou há duas semanas. O workshop anuncia $ 100.000 em “prêmios de melhor trabalho”, uma quantia que eu não vi em nenhuma disciplina acadêmica.
As prioridades de pesquisa seguem o financiamento e, dadas as grandes somas de dinheiro investidas na IA em apoio a uma ideologia com adeptos bilionários, não é de surpreender que o campo tenha sido movendo-se em uma direção que promete um “ um futuro inimaginavelmente grande ” ao virar da esquina enquanto prolifera produtos que prejudicam grupos marginalizados no agora.
Podemos criar um futuro tecnológico que nos sirva. Veja, por exemplo, Te Hiku Media, que criou a tecnologia de linguagem para revitalizar te reo Māori, criando uma licença de dados “ com base no princípio Māori de kaitiakitanga, ou tutela” para que quaisquer dados retirados dos Māori os beneficiem primeiro. Compare essa abordagem com a de organizações como StabilityAI , que raspa obras de artistas sem seu consentimento ou atribuição enquanto pretende construir “IA para o povo”. Precisamos liberar nossa imaginação daquilo que nos foi vendido até agora: salvando-nos de um hipotético apocalipse AGI imaginado por poucos privilegiados, ou da sempre ilusória tecno-utopia prometida a nós pelas elites do Vale do Silício.