O papel do ensino superior no combate à desinformação sobre IA

6 min read

Ensino superior: No combate à desinformação sobre IA

ensino superior
Este blog HEPI foi gentilmente escrito por Sahil Shah, Diretor Geral e Ari Soonawalla, Diretor, ambos da Say No to Disinfo.

Quais foram as mudanças recentes na IA?

Os rápidos avanços na IA melhoraram muito suas capacidades na geração de conteúdo e na análise de sentimentos. Ao reduzir drasticamente os custos, também reduziram as barreiras à entrada. A aprendizagem automática está a tornar a monitorização das redes sociais, a análise de textos e de sentimentos muito mais poderosa, permitindo prever questões sociais, a viralidade de eventos noticiosos e quais os grupos que podem ser mais vulneráveis ​​à desinformação (informações falsas). Grandes modelos de linguagem (LLMs) já podem criar textos, fotos, áudio e vídeos que estão se tornando mais difíceis de distinguir do conteúdo orgânico.

O que significa a IA para a criação, disseminação e amplificação de informações falsas/desinformadas?

À medida que a disponibilidade de LLMs aumenta e os custos caem, é mais fácil criar conteúdo mais personalizado e eficaz. À medida que a criação de conteúdo, por sua vez, se torna mais automatizada, isso reduz os custos financeiros e de tempo associados à microssegmentação e à hiperpersonalização. Uma melhor compreensão do ambiente de informação significa que os intervenientes prejudiciais podem elaborar narrativas mais convincentes e eficazes.

A divulgação de campanhas muitas vezes depende de um grande número de contas nas redes sociais. A autenticidade percebida dessas contas é fundamental. As técnicas de Machine Learning (ML) permitem a geração de fotos de perfil cada vez mais realistas. Isso reduz a necessidade de extração de imagens e o potencial de pesquisas reversas de imagens para auxiliar na detecção de uma campanha. Como resultado, é possível criar contas credíveis em massa para espalhar desinformação – informações falsas espalhadas deliberadamente.

Além disso, os avanços na IA conversacional ou nos chatbots podem permitir que o envolvimento com indivíduos-alvo seja automatizado. Os chatbots usam grandes volumes de dados, ML e processamento de linguagem natural para imitar interações humanas, reconhecendo fala e entrada de texto e gerando uma resposta. Isto poderia ser usado para participar em discussões online, responder a comentários para estimular controvérsias e disputas e aumentar a polarização.

Podemos discernir informações geradas por IA?

A desinformação da IA ​​pode ser mais convincente do que a escrita por humanos. Uma nova pesquisa descobriu que as pessoas estão 3% menos probabilidade de detectar tweets falsos gerados por IA do que aqueles escritos por humanos. Embora existam ferramentas técnicas disponíveis para identificar erros/desinformação e comportamentos inautênticos coordenados usando IA, as soluções tecnológicas são limitadas na sua eficácia. Correções como pesquisas reversas de imagens exigem muito esforço do usuário. A verificação de factos é demorada e uma proporção cada vez menor de informação pode ser verificada à medida que a desinformação gerada/difundida pela IA é proliferada. A eficácia dos algoritmos de detecção também depende da disponibilidade de grandes conjuntos de dados de treinamento e da qualidade dos rótulos de dados. Embora a detecção esteja se tornando mais robusta, ela está constantemente tentando se atualizar à medida que o ataque se torna cada vez mais sofisticado.

Quais são as implicações disso a nível individual e social?

A nível individual, significa que todos devemos reter informações com incerteza. A desinformação está a mudar de uma abordagem única para narrativas mais personalizadas que são muito mais difíceis de combater. À medida que se torna mais rápido e barato produzir e disseminar, o ambiente de informação ficará mais lotado.

A nível social, o impacto colectivo destes impactos individuais pode causar um aumento na propagação da desinformação, um declínio na confiança nos meios de comunicação social, nas instituições e nos especialistas e, potencialmente, até mesmo um aumento da polarização.

Dada a eficácia limitada das ferramentas técnicas e o rápido desenvolvimento das capacidades, a literacia mediática e a educação são cruciais para construir a resiliência da sociedade à desinformação.

Quais são as implicações disto para a literacia mediática e a educação?

O mundo futuro será aquele em que a desinformação será mais prevalente, mais personalizada e mais difícil de discernir. À luz disto, a literacia mediática tradicional precisaria de ser aumentada para incluir o seguinte:

1) Como reter informações na incerteza. As pessoas têm preferência pela certeza em vez da incerteza (efeito de certeza). Talvez precisemos de ajudar as pessoas a desenvolver mentalidades “probabilísticas”, onde a informação pode ou não ser verdadeira.

2) Como interagir com informações incertas. Comunicar a incerteza associada à informação é fundamental para permitir que outros mantenham a informação na incerteza, pelo que a partilha de informação não torna as pessoas mais certas das suas crenças.

3) Como reconhecer operações de desinformação. Educar o público sobre quem os pode visar, por que o fazem, as técnicas que utilizam, os objetivos que têm e como isto se liga a narrativas específicas pode ajudar a identificar quando é mais provável que uma informação seja desinformação.

4) Quais ferramentas técnicas podem ser usadas para verificar informações, relatar informações incorretas/desinformadas e desplataformar.

O que torna um programa de literacia mediática eficaz?

Plataformas eficazes de literacia mediática podem treinar as pessoas sobre como reter informações na incerteza, interagir com informações incertas e reconhecer operações de influência. É fundamental garantir que as intervenções também ajudem os utilizadores a navegar pelas tecnologias, por exemplo, ajudando-os a compreender os sistemas automatizados baseados em dados e a identificar quando estão a ser utilizados.

É importante começar com uma definição clara de literacia mediática no contexto da intervenção, a fim de orientar as decisões de concepção. Isto é especialmente importante quando se considera o papel da IA ​​na desinformação. Para serem mais eficazes, as intervenções de literacia mediática devem ser concebidas com um âmbito restrito, altamente personalizadas para o contexto do grupo-alvo e reforçadas com “reforços” ao longo do tempo. Isto poderia ser feito através de um formato modular com módulos individuais centrados nos principais resultados de aprendizagem e temas-chave reforçados entre módulos para optimizar a longevidade do efeito.

Isto pode ser implementado numa variedade de contextos, incluindo através de universidades, locais de trabalho, educação cívica mais ampla e comunicações públicas, a fim de alcançar diversos grupos de pessoas. Fundamentalmente, para ser eficaz, esta educação precisa de provir de diferentes nós dentro de uma rede, durante um período de tempo prolongado, e de intervenientes de confiança.

O sistema educativo é uma componente crítica de uma estratégia eficaz de literacia mediática e deve ser aproveitado para fornecer aos jovens as ferramentas de que necessitam para navegar neste ambiente de informação perigoso e em rápida mudança. A inclusão de módulos de literacia mediática bem definidos e direcionados nos currículos manteria os jovens mais seguros e construiria uma sociedade mais resiliente.

Receba nossas atualizações por e-mail

Digite seu endereço de email para assinar este blog e receber notificações de novos posts por email.

Endereço de email

Se inscrever

A postagem O papel do ensino superior no combate à desinformação sobre IA apareceu primeiro em HEPI.

https://www.hepi.ac.uk/2024/01/12/the-role-for-higher-education-in-combatting-ai-misinformation/
Autor: HEPI Guest Post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *