27.5 C
Brasília
quinta-feira, novembro 28, 2024
Continua após a publicidade..

Confie em grandes modelos de linguagem por sua conta e risco

Esta história apareceu originalmente no The Algorithm, nosso boletim semanal sobre IA. Para receber histórias como esta em sua caixa de entrada primeiro, inscreva-se aqui.

Quando a Meta lançou o Galactica, um grande modelo de linguagem de código aberto projetado para ajudar os cientistas, a empresa – recuperando-se das críticas de seus caros investimentos no metaverso e suas recentes demissões em massa – esperava uma grande vitória de relações públicas. Em vez disso, tudo o que recebeu foram críticas no Twitter e uma postagem picante no blog de um de seus críticos mais vocais, terminando com sua decisão embaraçosa de tomar a demonstração pública do modelo caiu depois de apenas três dias.

Continua após a publicidade..

De acordo com Meta, Galactica pode “resumir trabalhos acadêmicos, resolver problemas de matemática, gerar artigos Wiki, escrever código científico, anotar moléculas e proteínas e muito mais.” Mas logo após seu lançamento, foi muito fácil para estranhos solicitar o modelo a fornecer “pesquisa científica” sobre os benefícios da homofobia , anti-semitismo, suicídio, comer vidro, ser branco ou ser homem. Enquanto isso, artigos sobre AIDS ou racismo foram bloqueados. Encantador!

Como meu colega Will Douglas Heaven escreve em sua história sobre o desastre: “O passo em falso da Meta – e sua arrogância – mostram mais uma vez que a Big Tech tem um ponto cego sobre a grave limitações de grandes modelos de linguagem”.

O lançamento da Galactica não foi apenas prematuro, mas também mostra como os esforços insuficientes dos pesquisadores de IA para tornar os grandes modelos de linguagem mais seguros foram.

A Meta poderia estar confiante de que a Galactica superou os concorrentes na geração de conteúdo de som científico. Mas seu próprio teste do modelo em busca de viés e veracidade deveria ter impedido a empresa de lançá-lo à solta.

Uma maneira comum de os pesquisadores tentarem tornar modelos de linguagem grandes menos propensos a cuspir conteúdo tóxico é filtrar certas palavras-chave. Mas é difícil criar um filtro que capte todas as nuances pelas quais os humanos podem ser desagradáveis. A empresa teria se poupado de um mundo de problemas se tivesse conduzido mais testes contraditórios da Galactica, nos quais os pesquisadores teriam tentado fazê-la regurgitar o máximo possível de resultados tendenciosos diferentes.

Os pesquisadores do Meta mediram o modelo de vieses e veracidade, e embora tenha um desempenho ligeiramente melhor do que os concorrentes, como GPT-3 e o próprio modelo OPT da Meta, forneceu muitas respostas tendenciosas ou incorretas. E também há várias outras limitações. O modelo é treinado em recursos científicos de acesso aberto, mas muitos artigos científicos e livros didáticos são restritos a acesso pago. Isso inevitavelmente leva a Galactica a usar fontes secundárias mais esboçadas.

Galactica também parece ser um exemplo de algo que realmente não precisamos de IA para fazer. Não parece que atingiria o objetivo declarado de Meta de ajudar os cientistas a trabalhar mais rapidamente. Na verdade, isso exigiria que eles fizessem muito esforço extra para verificar se as informações do modelo eram precisas ou não.

É realmente decepcionante (ainda que totalmente não surpreendente) ver grandes laboratórios de IA, que deveriam saber mais, exaltar essas tecnologias defeituosas. Sabemos que os modelos de linguagem tendem a reproduzir preconceitos e afirmar falsidades como fatos. Sabemos que eles podem “alucinar” ou inventar conteúdo, como artigos wiki sobre a história dos ursos no espaço. Mas o desastre foi útil para uma coisa, pelo menos. Isso nos lembrou que a única coisa que os grandes modelos de linguagem “sabem” com certeza é como as palavras e as sentenças são formadas. Todo o resto é adivinhação.

Aprendizado Profundo

Assista a este cão robô desbrave terrenos difíceis apenas usando sua câmera

Uma nova técnica desenvolvida por equipes de Carnegie Mellon e Berkeley poderia potencialmente ajudar os robôs a se tornarem mais úteis, tornando-os melhores na navegação em terrenos complicados, como degraus e terreno irregular.

Ao contrário de outros robôs, que tendem a depender fortemente de um mapa interno para se locomover, seu robô usa uma combinação de câmeras e aprendizado por reforço. Aplicar essa técnica em outros robôs pode ajudar a torná-los mais robustos, porque não seriam limitados por possíveis erros em um mapa.

Por que é importante: O trabalho deles pode ajudar nos esforços para tirar os robôs do laboratório e faça com que eles se movam mais livremente no mundo real. Leia minha história aqui.

Bits e Bytes

Stanford estudou 30 grandes modelos de linguagem para que você não precise O Centro de Pesquisa em Modelos de Fundação da universidade combinou várias métricas diferentes em um grande benchmark holístico que avalia a precisão, calibração, robustez, imparcialidade, viés, toxicidade e eficiência de grandes modelos de linguagem. Fiquei surpreso ao ver que modelos maiores não se traduziam em melhor desempenho. (Stanford)

A Itália proibiu a tecnologia de reconhecimento facial na maioria dos casos O país proibiu o uso de reconhecimento facial, a menos que seja para combater o crime – pelo menos até o final do próximo ano. A proibição é semelhante ao que a UE está considerando fazer em seu próximo regulamento, o AI Act. (Reuters)

Trabalhadores de shows na Índia estão se unindo para retomar o controle dos algoritmos Uma ótima história sobre como os trabalhadores temporários estão encontrando maneiras de manipular os algoritmos que governam suas vidas profissionais a seu favor, pela primeira vez. (Resto do mundo)

A verdade assustadora sobre os direitos autorais da IA ​​é que ninguém sabe o que acontecerá a seguir As leis sobre direitos autorais precisarão ser ajustadas rapidamente, pois a IA de criação de imagens se torna ainda mais onipresente. Esta peça expõe as tensões e armadilhas enfrentadas pela indústria. (The Verge)

Check out other tags:

0