A auditoria algorítmica será inútil para responsabilizar a inteligência artificial até que haja padrões, abordagens e objetivos comuns que examinem os sistemas em cada estágio de desenvolvimento e implantação, diz think-tank
- Repórter sênior
- 23 de novembro de 2022 11:55
Por
- Sebastian Klovig Skelton,
Processos de auditoria algorítmica inadequados e mal definidos estão sendo usados para mascarar p práticas problemáticas ou ilegais com inteligência artificial (IA), de acordo com um relatório do German Marshall Fund (GMF).
Isso também é conhecido como “lavagem de auditoria” e o relatório disse que muitas das práticas de auditoria atuais da indústria de tecnologia fornecem falsas garantias porque as empresas estão conduzindo suas próprias autoavaliações ou, quando há verificações externas, ainda são avaliados de acordo com seus próprios objetivos, em vez de conformidade com padrões de terceiros.
“Se bem projetadas e implementadas, as auditorias podem aumentar a transparência e a explicabilidade”, disse o relatório. “Eles podem tornar visíveis aspectos da construção e operação do sistema que, de outra forma, ficariam ocultos. As auditorias também podem substituir a transparência e a explicabilidade. Em vez de confiar naqueles que desenvolvem e implantam sistemas algorítmicos para explicar ou divulgar, os auditores investigam os próprios sistemas.
“As auditorias não promoverão IA confiável ou responsabilidade de plataforma, a menos que sejam confiáveis.”
Para garantir que as auditorias algorítmicas se tornem uma parte confiável e significativa da governança de IA, a GMF disse que várias questões importantes devem ser consideradas.
Isso inclui quem está fazendo a auditoria. Por exemplo, embora as auditorias internas possam ser úteis para detectar problemas antes que afetem as pessoas, a GMF disse que esse processo é inerentemente não confiável porque pode ser usado para fornecer afirmações não verificáveis de que a IA passou por padrões legais ou éticos.
Auditorias externas, por outro lado, embora incapazes de detectar problemas antecipadamente devido a necessariamente olhar para trás através o processo de desenvolvimento de IA normalmente exibirá independência da organização de implantação, sinalizando confiabilidade e conformidade.
Em julho de 2022, por exemplo, a Meta publicou seu primeiro relatório de direitos humanos, realizado pela própria empresa. Embora detalhasse os “riscos mais salientes” da corporação e como ela cria “práticas, decisões, abordagens e produtos que respeitam os direitos”, os ativistas disseram na época que a Meta havia negligenciado examinar adequadamente os impactos negativos sobre os direitos de seu próprio negócio baseado em vigilância. modelo.
Outras questões que as organizações devem considerar ao auditar incluem definir o que exatamente está sendo auditado e quando. O relatório GMF disse: “Um processo algorítmico vai desde a especificação do problema até a coleta de dados, modelagem e validação até a implantação e até mesmo ajustes pós-implantação. Para processos dinâmicos, como algoritmos de mídia social, esse processo é iterativo e se renova constantemente.
“As disposições de auditoria algorítmica que usam termos como ‘avaliação de risco’ ou ‘auditoria’ geralmente são vagas sobre o objeto e o momento da investigação e se pretendem examinar o ciclo de vida completo de um sistema de IA ou apenas partes dele .”
Acrescentou: “Outra armadilha comum no espaço tecnológico é para uma empresa professar adesão aos padrões de direitos humanos sem realmente projetar seus sistemas para cumpri-los.”
Na primeira Conferência Internacional de Auditoria Algorítmica – um fórum criado para especialistas e profissionais de auditoria compartilharem conhecimento e melhores práticas sobre como as organizações podem gerenciar seus sistemas de IA com responsabilidade – o consenso foi que as organizações devem conduza auditorias de ponta a ponta que considerem os aspectos sociais e técnicos da IA para entender completamente o impacto cts de qualquer sistema.
Tirando conclusões semelhantes ao GMF, o especialistas em auditoria disseram que a maior parte do problema é que os sistemas de IA geralmente são desenvolvidos de maneira aleatória, com as empresas não documentando adequadamente o processo de desenvolvimento, tornando muito mais difícil conduzir essas auditorias “sociotécnicas” posteriormente.
Para ser significativo, o GMF disse que precisa haver um conjunto de padrões comuns, que permanecem “contestados e indescritíveis” devido à falta de acordo sobre metas e definições básicas entre auditores e auditados.
Disse que as disposições de auditoria também devem ser claras sobre a questão abordada pela auditoria. Por exemplo, quer sejam conduzidas para cumprir um requisito legal ou como um objetivo ético, a maioria das auditorias procurará abordar questões sobre justiça, explicabilidade, reparação, privacidade ou robustez e segurança.
“Os padrões que a auditoria usa para avaliar normas como imparcialidade, privacidade e precisão devem ser tão consensuais quanto possível, ” disse. “Na ausência de consenso, que será frequente, as normas aplicadas devem ser, no mínimo, bem articuladas. Uma situação em que os auditores propõem seus próprios padrões não é ideal.
“Padrões comuns, ou pelo menos evidentes, fomentarão o desenvolvimento pela sociedade civil de certificações e selos para sistemas algorítmicos, enquanto padrões nebulosos e conflitantes facilitarão a ‘lavagem de auditoria’ de sistemas, dando a falsa impressão de verificação rigorosa.”
Dando provas ao Comitê de Negócios, Energia e Estratégia Industrial (BEIS) do Parlamento sobre como a IA afeta o local de trabalho, Anna Thomas, diretora do Institute for the Future of Work, disse: “As próprias ferramentas de auditoria raramente serão explícitas sobre o objetivo da auditoria ou definições importantes, incluindo igualdade e justiça”. Ela acrescentou que muitos pressupostos culturais em torno desses conceitos são importados dos EUA.
Em relatório publicado em 17 de novembro de 2022, intitulado Repensando os dados e reequilibrando o poder digital, o Ada Lovelace Institute defendeu uma maior participação pública no escrutínio de dados e algoritmos, o que poderia ajudar a superar alguns desses problemas.
“Painéis ou júris de cidadãos poderia ser coordenado por organizações especializadas da sociedade civil para fornecer informações sobre a auditoria e avaliação de conjuntos de dados e algoritmos que tenham impactos e efeitos sociais significativos”, afirmou, acrescentando que “codesign participativo ou assembleias deliberativas” também podem ser usados para ajudar a inserir considerações de interesse público no processo de design.
O relatório GMF foi escrito por Ellen P Goodman, uma ex-GMF membro sênior e atual consultor sênior de justiça algorítmica na Administração Nacional de Telecomunicações e Informações, e gerente de programa GMF e colega Julia Tréhu.