Por: Equipe Oásis
Fonte: Site www.luispellegrini.com.br
Logo depois do resultado – para muitos inesperado – das eleições presidenciais norte-americanas, falou-se muito de como as mídias sociais tinham contribuído para a difusão de informações distorcidas e não sempre verdadeiras, bem como para falsificar as expectativas da maioria da opinião pública a respeito do vencedor.
O fenômeno é mais conhecido como “bolha de filtragem” ou “bolha de filtros”: Os algoritmos do Facebook, Google e quase todas as outras plataformas sociais que gravam e recordam as nossas escolhas passadas e a partir delas selecionam as notícias que nos enviam com base em nossos gostos, hábitos, costumes e interesses. O resultado desses processos é que, para muitos, fica fácil acreditar que o resto do mundo pense igual a eles, e viver no interior de um contexto cultural acolchoado no qual só encontram lugar as opiniões similares às nossas.
Furar a bolha
As mídias sociais recorrem a esses instrumentos para nos manter “fisgados”, mas, segundo a opinião de especialistas, com mais da metade da população que se informa sobretudo através do Facebook e do Google, parece legítima a dúvida de que esses mecanismos possam realmente influir sobre as nossas decisões concretas. O que fazer para retomar o controle do nosso fluxo de informações?
Primeira regra. Podemos começar evitando de esconder ou deletar do nosso círculo de amigos aqueles que têm opinião e posição diferente ou contrária às nossas. A tentação de cancelar esses nomes é forte, fortíssima: mas cada vez que o fazemos restringimos um pouco mais os confins da bolha em que nos encontramos. Uma outra sugestão é a de não renunciarmos a exprimir nossas próprias opiniões, até mesmo em um mundo – o das redes sociais – no qual as ideias extremistas expostas aos gritos e a poder se insultos se impõem com mais força do que os pareceres e argumentos mais razoáveis e baseados em dados concretos.
É preciso ter em mente que a gaiola de ouro do Facebook não nos confirma apenas com relação a nossas opiniões políticas: ela também nos induz a comprar e a consumir. Por trás desses sistemas trabalham legiões de profissionais da arte e da ciência da persuasão.
Cuidado com o que você curte e replica. A confiabilidade das notícias e informações que você recebe por meio das redes sociais é fundamental. Pesquisadores do MIT – Massachusetts Institute of Technology, um dos mais prestigiosos centros tecnológicos dos Estados Unidos, informam que as tentativas feitas até agora pelo Google e o Facebook para identificar e controlar as fofocas sem fundamento, as notícias falsas e mentirosas e os sites desinformativos (retirando deles tráfego e visibilidade) estão longe de serem suficientes. As bolhas de filtragem continuam se nutrindo também de notícias falsas. Uma ideia que se sugere aos donos de redes sociais seria a introdução de algoritmos que trabalham para inserir, de tempos em tempos, em nossos feeds, notícias “contrárias” às nossas ideias e preferências: um sistema que reconheça quando nossa visão se torna demasiado estreita e sugira artigos ou páginas que essa visão se amplie.
CUIDADO COM AS BOLHAS DE FILTRAGEM ONLINE
À medida em que empresas da Web se esforçam para fornecer serviços sob medida para nossos gostos pessoais (incluindo notícias e resultados de pesquisa), acontece uma perigosa e não intencional consequência: Caímos na cilada das bolhas de filtragem e não somos expostos à informações que poderiam desafiar ou ampliar nossa visão de mundo. Eli Pariser, nesta conferência pronunciada no TED, argumenta com veemência que esse fenômeno fatalmente será ruim para todos nós e para a democracia.
Vídeo: TED – Ideas Worth Spreading
Tradução: Paulo Melillo. Revisão: Viviane Ferraz Mattos
Analista e produtor digital, Eli Pariser é o autor do best-seller “The Filter Bubble”, A Bolha de Filtragem, onde ele descreve como os mecanismos de busca personalizada na Internet estão tornando cada vez mais estreita a nossa visão de mundo.
Vídeo:
Tradução integral da palestra de Eli Pariser:
Durante uma entrevista na qual Mark Zuckerberg, principal dono do Facebook, respondia perguntas sobre os “feeds” de notícias, um jornalista questionou: “Por que isto é tão importante?” E Zuckerberg respondeu: “Um esquilo morrendo no seu jardim pode ser mais relevante para os seus interesses, neste momento, do que milhares de pessoas morrendo de fome e doenças na África.”
Quero falar sobre como seria o aspecto de uma ‘web’ baseada nesta ideia de relevância.
Quando eu estava crescendo em uma área realmente rural, no Maine (EUA), a internet significava algo muito diferente para mim. Ela significava uma conexão para o mundo. Significava algo que nos ligaria a todos. E eu tinha certeza que ela seria ótima para a democracia e para a nossa sociedade. Mas aconteceu este tipo de mudança em como a informação está fluindo ‘on-line’, e ela é invisível. E se não prestarmos atenção nisto, poderá vir a ser um grande problema.
Pois bem, notei isto a primeira vez em um lugar onde passo muito tempo — na minha página do Facebook. Sou um progressista, politicamente — grande surpresa — mas sempre saí dos meus caminhos para encontrar os conservadores. Eu gosto de ouvir sobre o que eles estão pensando; gosto de ver para quais ‘links’ eles apontam; gosto de aprender uma ou duas coisas. E então, fiquei surpreso quando percebi certo dia que os conservadores haviam desaparecido do meu ‘feed’ do Facebook. E o que estava acontecendo era que o Facebook observava em quais ‘links’ eu clicava, e ele notava que, na verdade, eu clicava mais nos ‘links’ dos meus amigos liberais do que nos ‘links’ dos meus amigos conservadores. E, sem me consultar sobre isto, o Facebook os deletou. Eles simplesmente desapareceram.
Pois bem, o Facebook não é o único lugar que está fazendo este tipo de edição algorítmica e invisível da ‘web’. O Google o faz também. Se eu busco por algo e você busca este mesmo algo, ainda que no mesmo instante, nós talvez tenhamos resultados de busca muito diferentes. Mesmo que você não esteja “logado”, um engenheiro contou-me, que existem 57 sinais que o Google olha — desde o tipo de computador no qual você está ao tipo de navegador que você usa até onde você se localiza — que ele usa para filtrar os seus resultados de busca. Pense sobre isto por um segundo: não há mais um Google padrão. E sabe de uma coisa, o engraçado sobre isto é que é difícil de ver. Você não consegue ver quão diferentes são os seus resultados de busca dos das demais pessoas.
Algumas semanas atrás, eu pedi para um grupo de amigos ‘googlear’ a palavra “Egito” e me enviarem as telas com os resultados que obtiveram. Então, eis aqui a tela do meu amigo Scott. E aqui, a tela do meu amigo Daniel. Quando você as coloca lado a lado, você nem mesmo precisa ler os ‘links’ para ver quão diferentes estas duas páginas são. Mas quando você lê os ‘links’, de fato, é realmente muito marcante. O Daniel não obteve nada sobre os protestos no Egito em sua primeira página de resultados do Google. Os resultados do Scott estavam cheios deles. E esta era a manchete do dia, naquele momento. Isto é o quão diferentes estes resultados estão se tornando.
E também não é apenas o Google e o Facebook. Isto é algo que está varrendo a rede. Há toda uma série de empresas que estão fazendo esse tipo de personalização. O ‘Yahoo News’, o maior site de notícias da internet, é agora personalizado — pessoas diferentes obtêm diferentes notícias. o ‘Huffington Post’, o ‘Washington Post’, o ‘New York Times’ — todos estão flertando com a personalização, de várias formas. E isto no leva muito rapidamente para um mundo no qual a internet nos mostra aquilo que ela pensa que queremos ver, mas não necessariamente o que precisamos ver. Como Eric Schmidt (diretor-executivo do Google) disse: “Será muito difícil para as pessoas assistirem ou consumirem algo que não tenha, em algum sentido, sido feito sob medida para elas.”
Então, eu realmente penso que isto é um problema. E eu acho que, se você pegar todos estes filtros juntos, você pega todos estes algoritmos, você tem o que eu chamo de filtro-bolha. E o seu filtro-bolha é o seu próprio, pessoal e único universo de informação com o qual você vive ‘on-line’. E o que está no seu filtro-bolha depende de quem você é, e depende do que você faz. Mas a questão é que você não decide o que entra. E, mais importante ainda, você, na verdade, não vê o que fica de fora. Então, um dos problemas com o filtro-bolha foi descoberto por alguns pesquisadores da Netflix. E eles estavam olhando as listas de dados da Netflix e notaram algo engraçado que muitos de nós provavelmente já notaram, que existem alguns filmes que aparecem, e logo desaparecem de nossas casas. Eles entram na lista e simplesmente desaparecem, em seguida. Então, “Homem de Ferro” logo desaparece enquanto que “Esperando pelo Super-homem” pode esperar por um tempo realmente longo.
O que eles descobriram foi que em nossas listas do Netflix há esta épica batalha em curso entre nossas futuras aspirações pessoais e nosso presente mais impulsivo e íntimo. Vocês sabem que todos queremos ser alguém que assistiu ao “Rashomon” (filme cult japonês da decáda de 50), mas, neste exato momento, nós queremos assistir “Ace Ventura” pela quarta vez. Então, a melhor edição nos dá um pouco de ambos. Ela nos dá um pouco de Justin Bieber e um pouco sobre o Afeganistão. Ela nos dá algumas informações “vegetarianas”, ela nos dá algumas informações do tipo sobremesa. E o desafio com estes tipos de filtros algorítmicos, estes filtros personalizados, é que, pelo fato de que eles olham principalmente para aquilo que você clica em primeiro lugar, eles podem comprometer o equilíbrio. E, ao invés de uma dieta balanceada de informação, você pode acabar rodeado por informações do tipo “porcariada alimentar”.
O que isto sugere é que, na verdade, obtenhamos talvez a história equivocada sobre a internet. Em uma sociedade de transmissão (de rádio e TV) — é assim que o ‘mito de origem’ acontece — em uma sociedade de transmissão, existiam estes porteiros, os editores, e eles controlavam os fluxos de informação. E veio a internet e os varreu para fora do caminho, e ela permitiu que nos conectássemos, e era ótimo! Mas não é isso que, na verdade, está acontecendo agora. O que estamos vendo é mais uma passagem do bastão dos porteiros humanos para os algorítmicos. E a questão é que os algoritmos não possuem ainda o tipo de ética arraigada que os editores possuíam. Então, se os algoritmos serão os curadores do mundo para nós, se eles decidirão o que veremos e o que não veremos, então precisamos ter certeza de que eles não estarão atados apenas à relevância. Precisamos ter certeza que eles também nos mostrarão coisas que são desconfortáveis ou desafiadoras ou importantes — isto é o que o TED faz, correto? — outros pontos de vista.
E a questão é que já passamos por isso antes como sociedade. Em 1915, não era que os jornais se esforçavam muito sobre suas responsabilidades civis. Então, as pessoas perceberam que eles faziam algo realmente importante. Que, de fato, você não poderia ter uma democracia funcional se os cidadãos não conseguissem um bom fluxo de informação. Por isso que os jornais foram fundamentais, pois eles atuaram com um filtro e assim a ética jornalística se desenvolveu. Ela não era perfeita, mas nos conduziu pelo último século. E agora então, estamos como que de volta a 1915, na web. E precisamos de novos porteiros para registrarem aquele tipo de responsabilidade no código que eles estão escrevendo.
Eu sei que temos aqui muitas pessoas do Facebook e do Google — Larry e Sergey — pessoas que ajudaram a construir a web como ela é, e eu sou grato por isso. Mas realmente precisamos que vocês se certifiquem que estes algoritmos tenham codificados neles um senso de vida pública, um senso de responsabilidade cívica. Precisamos que vocês assegurem que eles sejam transparentes o bastante do modo que possamos ver quais são as regras que determinam o que passa pelos nossos filtros. E precisamos que vocês nos dêem algum controle, para que possamos decidir o que passa e o que não passa. Pois eu penso que realmente precisamos que a internet seja aquela coisa que todos sonhamos que ela fosse. Precisamos que ela conecte a todos nós. Precisamos que ela nos introduza em novas ideias, novas pessoas e diferentes perspectivas. E ela não fará isso se nos deixar isolados em uma “rede de um”.
Comentários
Os comentários aqui postados expressam a opinião dos seus autores, responsáveis por seu teor, e não do 247