Ensino superior: No combate à desinformação sobre IA
Este blog HEPI foi gentilmente escrito por Sahil Shah, Diretor Geral e Ari Soonawalla, Diretor, ambos da Say No to Disinfo.
Quais foram as mudanças recentes na IA?
Os rápidos avanços na IA melhoraram muito suas capacidades na geração de conteúdo e na análise de sentimentos. Ao reduzir drasticamente os custos, também reduziram as barreiras à entrada. A aprendizagem automática está a tornar a monitorização das redes sociais, a análise de textos e de sentimentos muito mais poderosa, permitindo prever questões sociais, a viralidade de eventos noticiosos e quais os grupos que podem ser mais vulneráveis à desinformação (informações falsas). Grandes modelos de linguagem (LLMs) já podem criar textos, fotos, áudio e vídeos que estão se tornando mais difíceis de distinguir do conteúdo orgânico.
O que significa a IA para a criação, disseminação e amplificação de informações falsas/desinformadas?
À medida que a disponibilidade de LLMs aumenta e os custos caem, é mais fácil criar conteúdo mais personalizado e eficaz. À medida que a criação de conteúdo, por sua vez, se torna mais automatizada, isso reduz os custos financeiros e de tempo associados à microssegmentação e à hiperpersonalização. Uma melhor compreensão do ambiente de informação significa que os intervenientes prejudiciais podem elaborar narrativas mais convincentes e eficazes.
A divulgação de campanhas muitas vezes depende de um grande número de contas nas redes sociais. A autenticidade percebida dessas contas é fundamental. As técnicas de Machine Learning (ML) permitem a geração de fotos de perfil cada vez mais realistas. Isso reduz a necessidade de extração de imagens e o potencial de pesquisas reversas de imagens para auxiliar na detecção de uma campanha. Como resultado, é possível criar contas credíveis em massa para espalhar desinformação – informações falsas espalhadas deliberadamente.
Além disso, os avanços na IA conversacional ou nos chatbots podem permitir que o envolvimento com indivíduos-alvo seja automatizado. Os chatbots usam grandes volumes de dados, ML e processamento de linguagem natural para imitar interações humanas, reconhecendo fala e entrada de texto e gerando uma resposta. Isto poderia ser usado para participar em discussões online, responder a comentários para estimular controvérsias e disputas e aumentar a polarização.
Podemos discernir informações geradas por IA?
A desinformação da IA pode ser mais convincente do que a escrita por humanos. Uma nova pesquisa descobriu que as pessoas estão 3% menos probabilidade de detectar tweets falsos gerados por IA do que aqueles escritos por humanos. Embora existam ferramentas técnicas disponíveis para identificar erros/desinformação e comportamentos inautênticos coordenados usando IA, as soluções tecnológicas são limitadas na sua eficácia. Correções como pesquisas reversas de imagens exigem muito esforço do usuário. A verificação de factos é demorada e uma proporção cada vez menor de informação pode ser verificada à medida que a desinformação gerada/difundida pela IA é proliferada. A eficácia dos algoritmos de detecção também depende da disponibilidade de grandes conjuntos de dados de treinamento e da qualidade dos rótulos de dados. Embora a detecção esteja se tornando mais robusta, ela está constantemente tentando se atualizar à medida que o ataque se torna cada vez mais sofisticado.
Quais são as implicações disso a nível individual e social?
A nível individual, significa que todos devemos reter informações com incerteza. A desinformação está a mudar de uma abordagem única para narrativas mais personalizadas que são muito mais difíceis de combater. À medida que se torna mais rápido e barato produzir e disseminar, o ambiente de informação ficará mais lotado.
A nível social, o impacto colectivo destes impactos individuais pode causar um aumento na propagação da desinformação, um declínio na confiança nos meios de comunicação social, nas instituições e nos especialistas e, potencialmente, até mesmo um aumento da polarização.
Dada a eficácia limitada das ferramentas técnicas e o rápido desenvolvimento das capacidades, a literacia mediática e a educação são cruciais para construir a resiliência da sociedade à desinformação.
Quais são as implicações disto para a literacia mediática e a educação?
O mundo futuro será aquele em que a desinformação será mais prevalente, mais personalizada e mais difícil de discernir. À luz disto, a literacia mediática tradicional precisaria de ser aumentada para incluir o seguinte:
1) Como reter informações na incerteza. As pessoas têm preferência pela certeza em vez da incerteza (efeito de certeza). Talvez precisemos de ajudar as pessoas a desenvolver mentalidades “probabilísticas”, onde a informação pode ou não ser verdadeira.
2) Como interagir com informações incertas. Comunicar a incerteza associada à informação é fundamental para permitir que outros mantenham a informação na incerteza, pelo que a partilha de informação não torna as pessoas mais certas das suas crenças.
3) Como reconhecer operações de desinformação. Educar o público sobre quem os pode visar, por que o fazem, as técnicas que utilizam, os objetivos que têm e como isto se liga a narrativas específicas pode ajudar a identificar quando é mais provável que uma informação seja desinformação.
4) Quais ferramentas técnicas podem ser usadas para verificar informações, relatar informações incorretas/desinformadas e desplataformar.
O que torna um programa de literacia mediática eficaz?
Plataformas eficazes de literacia mediática podem treinar as pessoas sobre como reter informações na incerteza, interagir com informações incertas e reconhecer operações de influência. É fundamental garantir que as intervenções também ajudem os utilizadores a navegar pelas tecnologias, por exemplo, ajudando-os a compreender os sistemas automatizados baseados em dados e a identificar quando estão a ser utilizados.
É importante começar com uma definição clara de literacia mediática no contexto da intervenção, a fim de orientar as decisões de concepção. Isto é especialmente importante quando se considera o papel da IA na desinformação. Para serem mais eficazes, as intervenções de literacia mediática devem ser concebidas com um âmbito restrito, altamente personalizadas para o contexto do grupo-alvo e reforçadas com “reforços” ao longo do tempo. Isto poderia ser feito através de um formato modular com módulos individuais centrados nos principais resultados de aprendizagem e temas-chave reforçados entre módulos para optimizar a longevidade do efeito.
Isto pode ser implementado numa variedade de contextos, incluindo através de universidades, locais de trabalho, educação cívica mais ampla e comunicações públicas, a fim de alcançar diversos grupos de pessoas. Fundamentalmente, para ser eficaz, esta educação precisa de provir de diferentes nós dentro de uma rede, durante um período de tempo prolongado, e de intervenientes de confiança.
O sistema educativo é uma componente crítica de uma estratégia eficaz de literacia mediática e deve ser aproveitado para fornecer aos jovens as ferramentas de que necessitam para navegar neste ambiente de informação perigoso e em rápida mudança. A inclusão de módulos de literacia mediática bem definidos e direcionados nos currículos manteria os jovens mais seguros e construiria uma sociedade mais resiliente.
Receba nossas atualizações por e-mail
Digite seu endereço de email para assinar este blog e receber notificações de novos posts por email.
Endereço de email
Se inscrever
A postagem O papel do ensino superior no combate à desinformação sobre IA apareceu primeiro em HEPI.
https://www.hepi.ac.uk/2024/01/12/the-role-for-higher-education-in-combatting-ai-misinformation/
Autor: HEPI Guest Post