Precisamos nos desconectar do Facebook!

Me desconectei por 15 dias e foi uma experiência incrível…

O smartphone nos transformou efetivamente em ciborgues, temos em nossa mão um dispositivo computacional de alta eficiência e equipado com câmera de foto e vídeo, microfone, GPS, acelerômetro, giroscópio, magnetrômetro, sensores de luz e proximidade, além de outros recursos que permitem a criação de aplicativos cada vez mais úteis, impressionantes e viciantes.

Há 20 anos, quando ainda “entravamos” na Internet através de nossos computadores, o máximo de mobilidade era alcançada com desajeitados e pesados laptops, e mesmo assim sua mobilidade estava limitada a um ponto de conexão física de rede. Hoje carregamos literalmente o mundo no bolso.

Nossos dispositivos estão conectados vinte e quatro horas por dia, sete dias por semana, e o ano inteiro, mesmo enquanto estamos dormindo. Temos consciência desta nova camada, deste novo sentido — nossos dispositivos podem ser percebidos como um novo sentido, o oitavo sentido, já que existem linhas teóricas que afirmam existir um sétimo sentido.

Vivemos tão conectados que não percebemos estarmos sempre carregando um dispositivo biônico, o smartphone, para onde vamos, literalmente qualquer lugar. Estamos sempre checando as nossas redes, notificações que saltam na telinha do celular, com seus barulhos característicos, e quando não estamos prestando atenção, eles vibram no nosso bolso para chamar nossa atenção.

Este dispositivo biônico, através dos aplicativos, nos oferece gratuitamente inúmeras facilidade tais como obtermos a melhor rota para qualquer destino, possibilitar andarmos em qualquer lugar do mundo, medir e registrar nossos dados físicos e fisiológicos usando outros dispositivos biônicos conectados ao nosso corpo, ou monitorar nossa casa através de dispositivos conectados, interagir através das redes sociais, navegar na internet, planejar qualquer coisa, gerenciar nosso trabalho, e muito mais, tudo que temos de fazer é dar em troca nossos dados e nossa autonomia.

E as redes sociais?

Chamam de interação social, um indivíduo olhando para uma tela colorida, sociabilizando através de uma espécie de metaverso, onde ele pode interagir silenciosamente em um ambiente frenético e ruidoso. É sem dúvida um metaverso, pois toda sociabilização nestas redes é mediada por complexos algoritmos. Estes algoritmos, ou melhor conjunto de algoritmos, cuidam de registrar tudo que você faz, cada clique, like, comentário, compartilhamento, leitura, amigo, grupo, página, absolutamente tudo eles registram. Estes registros são comparados com inúmeros outros que foram coletados de outros usuários, criando um perfil tão preciso, que bastam apenas 300 curtidas para o Facebook saber mais sobre você do que sua(seu) parceira(o). Conhecendo-o tão bem, os algoritmos irão lhe oferecer experiências sociais tão gratificantes, que o manterá cada vez mais fiel, e viciado.

Além de lhe proporcionar boas experiências, os algoritmos do Facebook podem influenciar seu humor, sua opinião, sua percepção do mundo, o principal objetivo dele é obter receita por suas interações, só de Julho à Setembro do ano passado, ele faturou 10,14 bilhões de dólares em publicidade, para isto ele precisa que você interaja mais, e segundo a neurocientista Molly Crocket, a forma mais eficiente de fazer isto é apresentar uma postagem que te provoque, literalmente. Ao fazer isto ele garante que você irá reagir e produzir um burburinho na sua bolha pessoal de amigos. Segundo Crocket as redes sociais neste processo provocam em nos uma montanha russa emocional, e ainda não se sabe as consequências disto.

Na verdade o Facebook é o maior laboratório social do mundo, estudando e registrando absolutamente tudo sobre mais de 2 bilhões de pessoas, ele possui perfis super detalhados por segmentos e até indivíduos das mais diversas culturas, isto confere à rede social um poder nunca antes imaginado.

Estamos nos tornando tão dependentes das relações sociais mediadas por algoritmos, que já existem patologias específicas como a FoMO — Fear of Missing Out, que é literalmente o medo de ficar de fora nas redes sociais.

Estes são apenas alguns dos problemas encontrados, mas foram a gota d’água que faltava para eu me entregar à uma experiência interessante e gratificante.

A Experiência

Foram quinze dias sem acesso ao Facebook, entre 18 de Dezembro de 2017 e 01 de Janeiro de 2018. Desinstalei tanto o aplicativo do Facebook como o Messenger de todos os meus dispositivos, e não acessei a rede social pelo computador no período.

Para avaliar a experiência, usei oito indicadores subjetivos:

  1. Ansiedade — com objetivo de medir o nível de ansiedade/tranqüilidade. Sendo 10 ansiedade extrema e 1 tranqüilidade extrema.
  2. Otimismo — com objetivo de medir o nível de otimismo/pessimismo. Sendo 10 extremamente otimista e 1 extremamente pessimista.
  3. Percepção da realidade — com o objetivo de medir o quanto positiva ou negativa. Sendo 10 extremamente positiva e 1 extremamente negativa.
  4. Felicidade — com o objetivo de medir a felicidade/tristeza. Sendo 10 extremamente feliz e 1 extremamente triste.
  5. Stress — com o objetivo de medir o nível de stress como um todo. Sendo 10 extremamente estressado e 1 extremamente calmo.
  6. Produtividade — Indicador subjetivo da percepção de produtividade. Sendo 10 extremamente produtivo, e 1 improdutivo ao extremo.
  7. Sensação de alienação social — Indicador bem subjetivo da percepção de alienação social, geralmente percebida com o número, frequência e densidade das interações sociais. Sendo 10 totalmente alienado, e 1 totalmente engajado.
  8. Sensação de alienação informacional — Com o objetivo de medir a percepção de informação de conjuntura e contexto, geralmente dada por noticias e novidades compartilhadas por seus pares. Sendo 10 totalmente alienado e 1 totalmente por dentro.

Como eu sabia como quantificar os indicadores, não me preocupei em criar elementos para sua avaliação, o que se tornará indispensável para a próxima fase da experiência com outros voluntários. Também se tornará imperante estabelecer o período e amostragem necessária para termos um melhor critério científico.

O que aconteceu?

A primeira preocupação foi em como eu “sobreviveria” sem o Facebook por 15 longos dias, percebi que estamos tão habituados a acessar a rede frequentemente que me pareceu uma decisão radical demais para ser tomada. Esta preocupação seguiu pelos dois primeiros dias.

No primeiro dia a ansiedade e o stress estavam altíssimos, e caíram abruptamente a partir do terceiro dia.

A sensação de aumento de produtividade se deu logo no segundo dia, e subiu rapidamente. Em busca de uma justificativa percebi que o habito de checar o Facebook regularmente, ou simplesmente a ideia de faze-lo nos deixa um estado de “semi conectividade” — é como estivéssemos o tempo todo em um tipo de “sleep mode” e qualquer notificação em nossos dispositivos nos “acordava” para ele — isto acaba consumindo muito de nossa atenção. Deixar o celular fora de nosso alcance ou simplesmente dentro da bolsa com avisos sonoros desligados pode ter um impacto enorme sobre nossa produtividade. No terceiro dia a sensação já estava tão positiva que percebia ter tempo de sobra e foi subindo até atingir o pico no sétimo dia mantendo-se então até o final da experiência.

O otimismo e a sensação de felicidade foram outros sentimentos que tiveram uma evolução positiva e significativa a partir do terceiro dia. Já a sensação de alienação social cresceu muito nos três primeiros dias chegando a uma percepção de quase total alienação no quarto dia, e em seguida caiu vertiginosamente até chegar a valores insignificantes. Já a percepção de alienação informacional foi a mais difícil de lidar, percebi o quanto me informo pelos meus pares no Facebook, mas apesar de atingir o pico de quase total alienação nos quatro primeiros dias, caiu a níveis mais baixos, chegando à uma média percepção de alienação informacional.

Ao longo da experiência aumentei minha interação social presencial, e a interação pelo Twitter, WhatsApp e Telegram, acredito ter feito assim uma substituição que impactou nos indicadores de alienação social e informacional.

Após o décimo quinto dia, não retornei ao Facebook, só fui acessar a rede social pela primeira vez cinco dias depois. A sensação de bem estar tomou conta de mim, e a alienação continuou reduzindo significativamente, continuo me informando pelos meus pares, mas agora voltei ao velho hábito de buscar informação diretamente. Minha forma de usar o Facebook mudou totalmente, não pretendo instalar novamente os aplicativos no meus dispositivos, e não sinto vontade de acessa-lo mais que uma ou duas vezes ao dia, e não permaneço mais do que 15 minutos. Tenho postado a partir de aplicativos externos, o Instagram, o Buffer, e compartilhamento a partir de aplicativos.

Conclusão

A experiência foi gratificante, e chama a atenção para um problema que deve ser levado à sério, a nossa relação com nossos dispositivos biônicos e principalmente com nossas relações sociais mediadas por algoritmos. É necessário e urgente estudos multidisciplinares sobre o tema, na busca de formas de construirmos uma sociedade de ciborgues saudáveis, uma vez que não usar a tecnologia pode ser tão desastroso como usa-la de forma intensiva. É preciso, antes de mais nada, estabelecer limites, definir ao menos um dia da semana para ficar totalmente desconectado(a) e usar os recursos tecnológicos com moderação.

É necessário um cuidado ainda maior com as crianças, que estão aprendendo a serem seres sociais. Tenho me incomodado muito o hábito crescente dos país que entregam às crianças dispositivos para que estas se ocupem, enquanto os mesmos estão sociabilizando em restaurantes e eventos sociais. Estas crianças não estão aprendendo a sociabilizar, estão aprendendo desde cedo que podem se alienar através de seus dispositivos, aprisionando-as em um futuro no qual elas não terão a menor autonomia, e não saberão se relacionar pessoalmente.

Próximos passos

Pretendo fazer esta experiência com voluntários, com critério científico, para um estudo mais sério e profundo, caso tenha interesse em se tornar um(a) voluntário(a), por favor preencha este breve formulário até julho de 2018.

Obrigado!


Publicado originalmente no Medium em 18/01/18 e no Entropia!

O poder político e ideológico do filtro bolha

Foto de Colin Adamson

O estudo da linha do tempo do Facebook

O texto a seguir é parte do meu pré projeto para mestrado, que torno público como contribuição ao debate atual em torno da conjuntura que o Brasil vive neste início de março de 2016.

Introdução

Em Maio de 2015 pesquisadores do Facebook publicaram um estudo intitulado “Exposure to ideologically diverse news and opinion on Facebook” (BAKSHY et al., 2015). O estudo focava em duas criticas mais comuns em torno do algoritmo do Facebook: Com cada vez mais indivíduos buscando informações cívicas nas redes sociais, o algoritmo poderia criar “câmeras de eco”, onde as pessoas são mais expostas a informações compartilhadas por seus pares ideológicos. A outra questão focava como o algoritmo classificava e buscava as informações exibidas na linha do tempo da rede social. Segundo Pariser (2012) o algoritmo criava um “filtro bolha”, onde somente conteúdo ideologicamente atraente era trazido à tona, isolando o usuário da diversidade.

O resultado apresentado mostra que os usuários estão expostos a uma quantidade substancial de conteúdo a partir de amigos com pontos de vista opostos, e que o mix de conteúdo encontrado na rede social é produto de uma escolha pessoal, e que apenas entre em 5 a 10% do que não se alinha à visão política do usuário é omitido.

Por conta desta conclusão, o estudo ganhou pelos críticos, ativistas e acadêmicos, o apelido de “Facebook’s it’s not our fault study”. Destes, Zeynep Tufecki (2015), socióloga ligada ao Berkman Center, de Harvard aponta algumas inconsistências. Em primeiro lugar foram tomados dados de um pequeno grupo de usuários, aqueles que se auto-identificam politicamente. Presume-se que esses que se auto-identificam são mais propensos a criarem uma bolha informativa em torno de si, uma vez que já estão politicamente definidos. A outra questão é que há uma brutal variação entre a probabilidade de uma informação ser visualizada quando disposta no topo da página ou mais embaixo. Ou seja, o Facebook não precisa omitir determinado link ou informação, basta dispô-lo no fim da linha do tempo, reduzindo substancialmente a possibilidade de ser visto. Por exemplo, um link tem 20% de possibilidade de ser clicado estando no topo da página. Esse número cai para menos de 10% se estiver na décima posição e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse usuário. A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das publicações são dois elementos que se complementam e não podem ser analisados em separado.

Para Pariser (2015), o estudo erra em pressupor que a escolha do usuário faz mais sentido do que responsabilizar o algoritmo do Facebook. Para ele existem duas preocupações em relação ao filtro bolha: que os algoritmos ajudem os usuários a se cercarem de informações que dão suporte às suas crenças, e que os algoritmos classifiquem como menos importante o tipo de informação que é mais necessária em uma democracia – notícias e informações sobre a a maioria dos temas sociais importantes (“hard-news”). Enquanto o estudo foca no primeiro problema, ele deixa rastros para o segundo, uma vez que apenas 7% dos usuários clica no que o estudo chama de “hard-news”, noticias de carater cívico, enquanto a maioria clica em “soft-news”, que são amenidades.

Existem algumas ressalvas apontados por Pariser no estudo, O mecanismo de marcação ideológica não significa o que parece que ele significa. Como os autores do estudo mencionam, e para muitos passa despercebido, é que isto não é uma medida de polarização partidária com a publicação. É uma medida de quais artigos tendem a ser mais compartilhados por um grupo ideológico do que o outro, existem hard-news que não são partidários. É difícil calcular a média de algo que está em constante mudança e diferente para todos. É um período de tempo muito longo para uma rede social que está constantemente se reinventando, muitas coisas aconteceram no período de tempo da pesquisa (07 de Julho de 2014, a 07 de Janeiro de 2015). A amostragem do estudo representa apenas 9% dos usuários do Facebook que declaram seu posicionamento político. É realmente difícil separar “escolha individual” e o funcionamento do algoritmo. O algoritmo responde ao comportamento do usuário em lotes diferentes, há um ciclo de feedback que pode diferir drasticamente para diferentes tipos de pessoas.

Tanto o estudo apresentado pelo Facebook, quanto suas críticas, e aqui citamos apenas duas, são conseqüência de diversos estudos e criticas anteriores, das quais destacamos duas bem controversas que motivaram a proposta deste projeto de pesquisa.

Para Zittrain (2014) O Facebook pode decidir uma eleição sem que ninguém perceba isto. Em seu texto ele demonstra que a simples priorização de um candidato na linha do tempo é suficiente para isto, principalmente frente aos usuários indecisos. Para sustentar sua tese, Zittrain cita um estudo desenvolvido em 2 de Novembro de 2010, onde uma publicação que auxiliava encontrar a zona de votação nos Estados Unidos apresentava a opção do usuário clicar um botão e informar a seis amigos que já havia votado. Isto produziu um aumento no número de votantes na região do experimento.

A controvérsia em relação ao filtro bolha ganhou uma dimensão significativa, e passou a chamar a atenção não só de pesquisadores, mas principalmente de ativistas, advogados e políticos, quando um estudo desenvolvido por pesquisadores ligados ao Facebook concluiu que era possível alterar o humor dos usuários por contágio emocional pela rede social. O experimento consistia em transferir emoções por contágio sem o conhecimento dos envolvidos, Kramer et al. (2014, p. 8788 tradução nossa) e foi bem sucedido:

Em um experimento com pessoas que usam o Facebook, testamos se o contágio emocional ocorre fora da interação presencial entre os indivíduos, reduzindo a quantidade de conteúdo emocional na linha do tempo. Quando foram reduzidos expressões positivas, as pessoas produziram menos publicações positivas e mais publicações negativas; quando foram reduzidos expressões negativas, o padrão oposto ocorreu.

Objetivos

Este projeto de pesquisa tem por objetivo compreender a forma como o filtro bolha afeta o fluxo e a classificação de informações e consequentemente, como afeta o posicionamento político e ideológico do usuário do Facebook no Brasil.

Com base nos estudos de Zittrain (2014) e Kramer et al (2014) torna-se possível começar a desenhar este recorte. A influência política proposta transcende a mera questão eleitoral apontada por Zittrain, estamos falando do posicionamento do indivíduo frente às questões políticas e ideológicas. O estudo do contágio emocional pelas redes sociais, não deixa dúvida da existência de mecanismos passíveis de influenciar as emoções dos usuários através da manipulação do fluxo de informação, da mesma forma que é perfeitamente plausível trabalhar com as questões que envolvam seus princípios e valores.

Para atingir este objetivo é necessário identificar e compreender os principais algoritmos, ou parte destes, utilizados pelo Facebook na classificação das informações apresentadas ao usuário. Uma vez identificados estes processos, torna-se imperativo complementar com o suporte teórico para identificar de que forma os processos possam interferir no posicionamento ideológico e político deste usuário.

Justificativa

Os algoritmos dos filtro bolha, são desenvolvidos para proporcionar uma melhor experiência para o usuário, oferecendo a ele opções de conteúdo cada vez mais adequados à suas expectativas. Para atingir este objetivo eles “aprendem” através de diversos indicadores como “likes”, comentários, compartilhamentos e o tempo gasto em cada publicação no Facebook, e comparam seu perfil com outros usuários que de uma forma ou de outra, o algoritmo identifica como semelhante a você. Obviamente existem outros métodos e indicadores que aprimoram o resultado apresentado ao usuário. É importante considerar que estes algoritmos estão constantemente reavaliando suas preferências, de tal forma que se tornam recursivos, a ponto de criarem o que Pariser (2012) chama de “Síndrome do Mundo Bom”. A Síndrome do Mundo Bom é uma “purificação” dos interesses do usuário dada a forma como ele se relaciona na linha do tempo, e que o afasta de publicações que não são compatíveis com seus interesses.

Ao conectar estas questões informacionais com o conhecimento de autores de outros campos de estudo como sociologia, psicologia e filosofia, encontramos e identificamos os mecanismos pelos quais o poder político e ideológico do filtro bolha é exercido. Como exemplo, John Rendon (RAMPTON; STAUBER, 2003) se define como um “guerreiro da informação e um administrador de percepções”, para ele a chave para modificar a opinião pública está em encontrar diferentes formas de dizer a mesma coisa. Este padrão pode ser perfeitamente encontrado na Síndrome do Mundo Bom.

Partindo do principio que a grande maioria dos usuários da Internet desconhece a existência do filtro bolha, é de extrema importância produzir um estudo que possa orientar tanto os especialistas como o cidadão comum, tanto a cerca da existência de tal filtro, como seu impacto em diferentes partes de sua subjetividade.


Publicado originalmente em 08/03/2016 no Entropia!