Pesquisadores da Universidade de Indiana liderarão uma equipe multi-institucional de especialistas em áreas como informática, psicologia, comunicação e folclore para avaliar o papel que a inteligência artificial pode desempenhar no fortalecimento da influência das comunicações online, incluindo desinformação e mensagens de radicalização, com uma doação de US$ 7,5 milhões do Departamento de Defesa dos EUA.
O projeto é um dos 30 recentemente financiados pela Iniciativa de Pesquisa Multidisciplinar Universitária do departamento, que apoia projetos de pesquisa básica relacionados à defesa.
Desinformação e mensagens de radicalização
“A enxurrada de desinformação e mensagens de radicalização representa uma ameaça significativa à sociedade”, disse o principal investigador Yong-Yeol Ahn, professor da Escola Luddy de Informática, Computação e Engenharia da Universidade de Indiana, em Bloomington. “Agora, com a IA, você está introduzindo a capacidade potencial de minerar dados sobre indivíduos e rapidamente gerar mensagens direcionadas que os atraem, aplicando big data a pessoas individuais, o que pode causar ainda maiores perturbações do que já experimentamos.”
Os insights da pesquisa sobre a interação entre IA, mídia social e desinformação online poderiam potencialmente equipar o governo para combater a influência estrangeira em campanhas e a radicalização, disse ele.
O esforço de cinco anos unirá especialistas de uma ampla gama de disciplinas, incluindo psicologia e ciência cognitiva; comunicação; folclore e narrativa; inteligência artificial e processamento de linguagem natural; sistemas complexos e ciência de redes; e neurofisiologia. Os seis pesquisadores da Universidade de Indiana no projeto, todos da Escola Luddy, também são afiliados ao Observatório de Mídia Social da universidade. Outros colaboradores incluem um especialista em mídia da Universidade de Boston, um psicólogo da Universidade de Stanford e um folclorista computacional da Universidade da Califórnia, em Berkeley.
Especificamente, Ahn disse que o projeto investigará o papel de um conceito sociológico chamado “ressonância” na receptividade das pessoas a certas mensagens. Isso se refere à ideia de que as opiniões das pessoas são mais fortemente influenciadas por material que ressoa com elas por meio de conteúdo emocional ou enquadramento narrativo que apela a crenças ou vieses cognitivos existentes, como ideologia política, convicções religiosas ou normas culturais.
A ressonância pode ser usada para criar mensagens que aproximam grupos, bem como para alimentar uma maior polarização, acrescentou Ahn. No entanto, a capacidade da IA de gerar rapidamente conteúdo baseado em texto, imagem ou vídeo tem o potencial de aumentar o poder dessas mensagens para o bem ou para o mal, adaptando o conteúdo às pessoas de maneira individual.
“Este é um projeto de ciência básica; tudo o que estamos fazendo é completamente aberto ao público”, disse Ahn. “Mas também tem muitas aplicações potenciais, não apenas para entender o papel da IA em campanhas de desinformação e campanhas de influência estrangeira, como nas eleições, mas também em tópicos como como fomentar a confiança na IA, semelhante à confiança de um piloto na confiabilidade de sistemas de navegação com IA. Há muitas questões importantes sobre IA que dependem da nossa compreensão de sua interseção com teorias psicológicas fundamentais.”
A equipe também aplicará a tecnologia de IA para apoiar sua pesquisa, acrescentou. O uso de IA para criar “agentes modelados” ou pessoas virtuais que compartilham informações e reagem a mensagens dentro de uma simulação, ajudará os pesquisadores a modelar com mais precisão o modo como a informação flui entre grupos, bem como o efeito que a informação tem sobre as “pessoas” dentro do modelo, disse ele.
A equipe também planeja estudar a resposta física de humanos da vida real à informação online, gerada por IA e não gerada por IA, com ferramentas como monitores de frequência cardíaca, para entender melhor a influência de sua “ressonância”, disse.
“Houve muitos desenvolvimentos importantes na área de agentes modelados nos últimos anos”, disse Ahn.
Outros pesquisadores conseguiram criar agentes modelados que “debatem” entre si em um espaço virtual, depois medem o efeito desse debate em suas opiniões simuladas, por exemplo.
O trabalho da equipe liderada pela Universidade de Indiana representará um “grande desvio” de outras tentativas de modelar sistemas de crenças por meio da simulação das opiniões das pessoas, acrescentou Ahn. O projeto aplicará “uma rede complexa de crenças e conceitos interativos, integrada à teoria da contágio social” para produzir “um modelo holístico e dinâmico de ressonância de crença em múltiplos níveis”. Essa abordagem foi delineada em um artigo publicado na revista Science Advances.
O resultado seria um sistema que se assemelha mais de perto às complexidades da vida real, onde as opiniões das pessoas não se baseiam simplesmente em partidos políticos, mas sim em uma interseção complexa de sistemas de crenças ou dinâmicas sociais. Por exemplo, Ahn disse que o grupo social de um indivíduo ou suas atitudes em relação à indústria médica podem prever suas opiniões sobre a segurança das vacinas de forma mais precisa do que a ideologia política.