Esta história apareceu originalmente no The Algorithm, nosso boletim semanal sobre IA. Para receber histórias como esta em sua caixa de entrada primeiro, inscreva-se aqui.
Quando a Meta lançou o Galactica, um grande modelo de linguagem de código aberto projetado para ajudar os cientistas, a empresa – recuperando-se das críticas de seus caros investimentos no metaverso e suas recentes demissões em massa – esperava uma grande vitória de relações públicas. Em vez disso, tudo o que recebeu foram críticas no Twitter e uma postagem picante no blog de um de seus críticos mais vocais, terminando com sua decisão embaraçosa de tomar a demonstração pública do modelo caiu depois de apenas três dias.
De acordo com Meta, Galactica pode “resumir trabalhos acadêmicos, resolver problemas de matemática, gerar artigos Wiki, escrever código científico, anotar moléculas e proteínas e muito mais.” Mas logo após seu lançamento, foi muito fácil para estranhos solicitar o modelo a fornecer “pesquisa científica” sobre os benefícios da homofobia , anti-semitismo, suicídio, comer vidro, ser branco ou ser homem. Enquanto isso, artigos sobre AIDS ou racismo foram bloqueados. Encantador!
Como meu colega Will Douglas Heaven escreve em sua história sobre o desastre: “O passo em falso da Meta – e sua arrogância – mostram mais uma vez que a Big Tech tem um ponto cego sobre a grave limitações de grandes modelos de linguagem”.
O lançamento da Galactica não foi apenas prematuro, mas também mostra como os esforços insuficientes dos pesquisadores de IA para tornar os grandes modelos de linguagem mais seguros foram.
A Meta poderia estar confiante de que a Galactica superou os concorrentes na geração de conteúdo de som científico. Mas seu próprio teste do modelo em busca de viés e veracidade deveria ter impedido a empresa de lançá-lo à solta.
Uma maneira comum de os pesquisadores tentarem tornar modelos de linguagem grandes menos propensos a cuspir conteúdo tóxico é filtrar certas palavras-chave. Mas é difícil criar um filtro que capte todas as nuances pelas quais os humanos podem ser desagradáveis. A empresa teria se poupado de um mundo de problemas se tivesse conduzido mais testes contraditórios da Galactica, nos quais os pesquisadores teriam tentado fazê-la regurgitar o máximo possível de resultados tendenciosos diferentes.
Os pesquisadores do Meta mediram o modelo de vieses e veracidade, e embora tenha um desempenho ligeiramente melhor do que os concorrentes, como GPT-3 e o próprio modelo OPT da Meta, forneceu muitas respostas tendenciosas ou incorretas. E também há várias outras limitações. O modelo é treinado em recursos científicos de acesso aberto, mas muitos artigos científicos e livros didáticos são restritos a acesso pago. Isso inevitavelmente leva a Galactica a usar fontes secundárias mais esboçadas.
Galactica também parece ser um exemplo de algo que realmente não precisamos de IA para fazer. Não parece que atingiria o objetivo declarado de Meta de ajudar os cientistas a trabalhar mais rapidamente. Na verdade, isso exigiria que eles fizessem muito esforço extra para verificar se as informações do modelo eram precisas ou não.
É realmente decepcionante (ainda que totalmente não surpreendente) ver grandes laboratórios de IA, que deveriam saber mais, exaltar essas tecnologias defeituosas. Sabemos que os modelos de linguagem tendem a reproduzir preconceitos e afirmar falsidades como fatos. Sabemos que eles podem “alucinar” ou inventar conteúdo, como artigos wiki sobre a história dos ursos no espaço. Mas o desastre foi útil para uma coisa, pelo menos. Isso nos lembrou que a única coisa que os grandes modelos de linguagem “sabem” com certeza é como as palavras e as sentenças são formadas. Todo o resto é adivinhação.
Aprendizado Profundo
Assista a este cão robô desbrave terrenos difíceis apenas usando sua câmera
Uma nova técnica desenvolvida por equipes de Carnegie Mellon e Berkeley poderia potencialmente ajudar os robôs a se tornarem mais úteis, tornando-os melhores na navegação em terrenos complicados, como degraus e terreno irregular.
Ao contrário de outros robôs, que tendem a depender fortemente de um mapa interno para se locomover, seu robô usa uma combinação de câmeras e aprendizado por reforço. Aplicar essa técnica em outros robôs pode ajudar a torná-los mais robustos, porque não seriam limitados por possíveis erros em um mapa.
Por que é importante: O trabalho deles pode ajudar nos esforços para tirar os robôs do laboratório e faça com que eles se movam mais livremente no mundo real. Leia minha história aqui.
Bits e Bytes
Stanford estudou 30 grandes modelos de linguagem para que você não precise O Centro de Pesquisa em Modelos de Fundação da universidade combinou várias métricas diferentes em um grande benchmark holístico que avalia a precisão, calibração, robustez, imparcialidade, viés, toxicidade e eficiência de grandes modelos de linguagem. Fiquei surpreso ao ver que modelos maiores não se traduziam em melhor desempenho. (Stanford)
A Itália proibiu a tecnologia de reconhecimento facial na maioria dos casos O país proibiu o uso de reconhecimento facial, a menos que seja para combater o crime – pelo menos até o final do próximo ano. A proibição é semelhante ao que a UE está considerando fazer em seu próximo regulamento, o AI Act. (Reuters)
Trabalhadores de shows na Índia estão se unindo para retomar o controle dos algoritmos Uma ótima história sobre como os trabalhadores temporários estão encontrando maneiras de manipular os algoritmos que governam suas vidas profissionais a seu favor, pela primeira vez. (Resto do mundo)
A verdade assustadora sobre os direitos autorais da IA é que ninguém sabe o que acontecerá a seguir As leis sobre direitos autorais precisarão ser ajustadas rapidamente, pois a IA de criação de imagens se torna ainda mais onipresente. Esta peça expõe as tensões e armadilhas enfrentadas pela indústria. (The Verge)