Raiva e narcisismo alimentam poder das redes sociais, diz especialista alemão

Imagem: Geralt / Pixabay.


“O crescimento da digitalização sempre foi exponencial, mas a pandemia acelerou esse processo com esteroides”, afirma Martin Hilbert, pesquisador alemão da Universidade da Califórnia-Davis, nos Estados Unidos, e autor do primeiro estudo que calculou quanta informação existe no mundo.

Conhecido também por ter alertado sobre a coleta de dados da consultoria Cambridge Analytica durante a campanha eleitoral de Donald Trump um ano antes de estourar o escândalo, Hilbert tem acompanhado de perto os efeitos digitais do coronavírus.

E suas conclusões são pouco otimistas: ele diz acreditar que as pessoas não sabem como lidar com o poder dos algoritmos, que os governos não sabem usá-los a favor de seus povos e que as empresas resistem a adotá-los de modo ético.

Isso deveria preocupar especialmente a América Latina, “líder mundial no uso de redes sociais”, adverte Hilbert, que morou uma década no Chile como funcionário da Organização das Nações Unidas (ONU) e hoje vive a 40 minutos de distância do Vale do Silício, nos EUA.

Em entrevista à BBC News Mundo, serviço de notícias em espanhol da BBC, ele diz que os desafios atuais podem exigir uma evolução da consciência humana:

Pergunta – Quais novidades a pandemia trouxe para nossa relação com as redes sociais?

Martin Hilbert – Houve dois efeitos simultâneos: nos tornou mais sensíveis às sequelas tóxicas da digitalização, mas acelerou nossa dependência dela.

E também confirmou que o segundo efeito é mais poderoso que o primeiro: ser consciente de que esse vício nos faz mal não tem produzido nenhuma mudança em nossa conduta.

P – Por que o Sr. acha que isso acontece?

Hilbert – É preciso entender como funciona a economia digital, na qual o recurso escasso a ser explorado é a atenção humana.

O negócio dos gigantes da tecnologia — Google, Apple, Facebook, Amazon — não é lhe oferecer anúncios publicitários, é modificar seu comportamento para otimizar o lucro desses anúncios.

E conseguem isso porque os algoritmos, ao processar milhões de dados sobre seu comportamento, aprendem a prevê-lo, melhor do que você mesmo.

Martin Hilbert participou do primeiro estudo que calculou quanta informação há no mundo. Imagem: Martin Hilbert.

Mas, ao conhecê-lo e exercer influência sobre você, precisam mantê-lo conectado. Por isso, as chamadas tecnologias persuasivas cumprem sua missão quando você se vicia e não consegue desviar sua atenção delas.

P – Pelo que mostra o documentário O Dilema das Redes (disponível na plataforma Netflix), muitos no Vale do Silício se arrependem de ter criado essas tecnologias.

Hilbert – Aqui no Vale do Silício a expressão da moda é human downgrading [degradação humana], que resume a seguinte ideia: de tanto discutir quando a tecnologia superaria nossas capacidades, perdemos de vista que as máquinas estavam focando em conhecer nossos pontos fracos.

Ganhar uma partida contra um campeão de xadrez é o de menos. Sua verdadeira fonte de poder tem sido nos levar a nosso narcisismo, nossa raiva, ansiedade, inveja, credulidade e, claro, a nossa luxúria.

Ou seja, as tecnologias persuasivas apelam para te manter na versão mais débil de você mesmo, para que perca seu tempo nas redes.

P- Alguns críticos têm dito que o documentário é alarmista, que carece de perspectiva histórica para entender que esses fenômenos não são tão novos.

Hilbert – Como todo documentário, ele deixa de cobrir aspectos importantes, como o cruzamento entre a tecnologia e as desigualdades. Mas eu não vejo um alarmismo exagerado.

Quem critica esses discursos usa uma frase típica: “Essas coisas sempre existiram”. E é verdade. De fato, o Facebook fez um estudo para mostrar que a rede social influencia menos na polarização política do que nosso apego inato aos amigos com ideias semelhantes.

Mas o mesmo estudo mostrou que os algoritmos de recomendação do Facebook duplicam esse efeito, e aí está o problema. Os ovos e a carne sempre fizeram aumentar o colesterol, mas nas últimas décadas potencializamos esse efeito comendo uma avalanche de sorvete e batata frita. Entende?

O que acontece é que nos custa admitir esse efeito sobre nós mesmos. Nos preocupa muito ver nossos filhos grudados o dia inteiro em uma chupeta digital, incapazes de se concentrar ou assimilando expectativas pouco realistas sobre seus corpos. Mas nós somos outra coisa, usamos as redes por diversão, ninguém está colocando uma chupeta na nossa boca.

P – Mas é um fato que a tecnologia digital também nos presta serviços imprescindíveis. A pandemia deixou isso claro.

Hilbert – Sem dúvida, e isso não tem volta.

O crescimento da digitalização sempre foi exponencial. Mas a pandemia acelerou isso com esteroides. Embora também tenha mostrado suas limitações, não?

‘Ao algoritmo não importa para que lado as notícias falsas te levam, simplesmente servem para prender (sua atenção), porque elas se enquadram melhor do que a verdade em nossos vieses cognitivos’, diz Hilbert. Imagem: Getty.

Dou aulas online há dois anos e conheço bem as desvantagens, mas agora as professoras primárias descobriram que para crianças de 7 anos não serve para nada.

Também acelerou o debate sobre privacidade, que antes era mais teórico: o que a Siri escuta, o que a Alexa escuta?

Outro dia, um pai desavisado estava colocando as calças enquanto minha filha de seis anos assistia à aula e, é claro, havia umas 30 famílias vendo um velho seminu atrás. Ou, de repente, você escuta um casal brigando no quarto ao lado (da videoconferência). Mesmo sem querer, você se mete na casa do outro o tempo todo. (…)

P – A pandemia também nos permitiu constatar que as notícias falsas se multiplicam quando há interesses políticos por trás.

Hilbert – Sim, e aqui o problema é a economia de atenção.

Ao algoritmo não importa para que lado as notícias falsas o levam, simplesmente servem para prender (sua atenção), porque elas se enquadram melhor do que a verdade em nossos vieses cognitivos. Em particular, em dois deles.

P- Quais?

Hilbert – Um é o viés da confirmação: se uma informação reforça a sua opinião, sabe-se que é 90% menos provável que você a identifique como falsa. Mesmo que digam que é falsa, é 70% mais provável que um tempo depois você lembre dela como verdadeira.

O segundo é o viés de novidade.

Nós evoluímos para prestar uma atenção desproporcional ao que é novo. Quem não fez isso foi comido pelo tigre. E a verdade não soa nova, soa como algo que você já escutou antes.

Dessa forma, as notícias falsas obtêm 20 vezes mais retuítes do que as verdadeiras.

E a vantagem dos algoritmos é que essas condutas são previsíveis: somos irracionais, mas previsivelmente irracionais.

Texto: Daniel Hopenhayn / BBC News Mundo Imagem: Geralt / Pixabay.