Poucos são os serviços que te dão o que queres ou o que precisas. Infelizmente, esses serviços são agora considerados premium, serviços dedicados ou exclusivos, só para alguns, só para quem sabe. Agora, para a maioria da população, a internet serve-te aquilo que os gigantes querem que tu vejas. E isso é um problema, um enorme imensurável e não quantificável problema.
O Facebook, por defeito, apresenta um mural por ele decidido. Independentemente das páginas que sigas ou do que gostes, o algoritmo do Facebook é que decide o que vais ver. Não porque esse algoritmo adivinhou o que te dá prazer de ver, o que é importante que tu, como indivíduo com gostos específicos, devas ver, mas sim o que te mantém mais tempo agarrado à plataforma. Puseste gosto nesta página e queres ver as publicações desta? O algoritmo automático do Facebook não acha que estas publicações e estas páginas te retenham o suficiente. Vais antes ver estas e estas que têm taxas muito mais altas de retenção de visualizações. Queres continuar a ver as fotos fofas e/ou divertidas da tua página preferida? O Facebook mudou o algoritmo e agora vais passar só a ver vídeos porque eles retêm muito mais os teus olhos.
Tecnicamente podes escolher ver o teu mural por ordem cronológica, mas tens que o selecionar cada vez que entras na plataforma. Tens que ativamente, todas as vezes que usas o Facebook, mudar o mural para a versão cronológica. Se saíres e voltares, já voltou para o automático.
O Instagram, que foi comprado pelo Facebook, fez o mesmo ao seu mural, reorganizando as fotografias e vídeos conforme a sua ativação de utilizadores. Assim como o Facebook, continua a priorizar as publicações com as quais mais interages, apresentando-te primeiro aquilo que te faz usar mais a plataforma. O Instagram é também das piores redes sociais para o bem-estar mental dos seus utilizadores mais jovens.
O Twitter fez algo similar, embora de uma maneira menos agressiva. Como o Twitter é desenhado para ser mais rápido de aceder, a interação com ele vai ser mais curta. E menos lucrativa. Já por isso o Twitter também tem a sua versão do algoritmo “que decide por ti”. Aplicando os mesmo princípios do Facebook, os tweets mais cativantes são os que te são mostrados primeiro. Mas como vantagem, podes mudar nas definições qual mural pretendes, o alterado pela máquina ou o original cronológico. Esta opção fica guardada e não tens que a mudar cada vez que entras no serviço. Mas mesmo assim, ainda te é apresentada uma secção de “aquilo que perdeste enquanto estavas ausente”, uma secção que te mostra os pontos altos do teu mural enquanto não o estavas a usar. Para que nunca percas as melhores mensagens de 280 caracteres, para que nunca deixes de voltar dia após dia.
Mas um muito feio problema surge com esta mudança de ordem cronológica: como ela é perdida, o que é comum é vermos notícias em desenvolvimento de assuntos já concluídos. Artigos sobre uma notícia de última hora, algum evento ao vivo, são apresentados sem a necessária ordem cronológica. Como resultado, as publicações que geram mais atenção, são as que são mostradas primeiro. Quem abre o Facebook ou o Twitter após estes eventos, vê nos seus murais um desorganizado e desatualizado fluxo de notícias todas cronologicamente confusas.
O YouTube, apesar de apresentar os teus vídeos subscritos em ordem cronológica, usa sugestões de visualização que já foram provadas perigosas. Por defeito, está ligada a reprodução automática que te mantém sempre a ver, sempre a consumir, sempre ativo na plataforma, a gerar lucros. Os algoritmos usados pelo YouTube definem os vídeos que mais ativam a sua audiência, servindo-os a todos, independentemente da procura. Podes procurar sobre um tema em particular, mas aparecerem-te vídeos completamente distintos e diferentes como sugestão, sem nenhuma ligação temática. Esses vídeos são-te sugeridos, não porque estão relacionados com o que queres ver, mas porque são vídeos que geram uma grande atividade por parte de quem os vê. Ou seja, é priorizado o lucro gerado em detrimento do que tu queres ver. Basta dar uma vista de olhos à página inicial das tendências para ver que a prioridade é dada ao consumo em massa, por mais ignorante e inútil que seja o vídeo.
Até o Netflix usa algoritmos destes que estimulam a visualização. As constantes sugestões de conteúdo, a reprodução automática após cada episódio ligada por defeito, o saltar das introduções para sempre veres o máximo conteúdo possível sem te distraíres.

Quando não existem barreiras no design, não paramos para pensar
Estes algoritmos que muito suavizam, agilizam e maximizam o nosso consumo destas plataformas são a principal razão para a existência de barreiras. Quando tudo é tornado tão fácil de usar onde não existe um momento para pensar, nós deixamos de ser conscientes e críticos e passamos a inertes e letárgicos que tudo consomem sem o mínimo de pensamento.
Estás sempre a percorrer o mural do Facebook. Estás sempre a ver as mesmas fotos no Instagram. Estás sempre a ver os tweets desordenados. Estás sempre a ver o próximo vídeo no YouTube. Estás sempre a ver só mais um episódio no Netflix.
Tempo para matar deixou de existir. Já não estás simplesmente relaxado, sem fazer nada, sem ativamente olhar para nada. A tua mente já não pode parar, simplesmente absorver o vento ou a natureza. Se estás parado é porque não estás a gerar dinheiro para ti ou para outros. Porque hoje em dia, o dinheiro tudo comanda e tudo controla.
Estes algoritmos que têm o singular objetivo de aumentar a tua interação com as respetivas plataformas levam apenas a um resultado final: lucros máximos com igualmente máximas destruições mentais e societais. Ganham as empresas, mas perdemos nós como indivíduos e como sociedades.
Uma apatia depressiva e uma repetição pavloviana
Apesar de parecerem inofensivas, estas mudanças lentamente mas certamente nos fundamentalmente condicionaram.
Estamos cada vez mais apáticos em relação ao mundo. Já consumimos o resumo de 15 segundos de tudo o que se passa no planeta e já somos especialistas de todas as filosofias. Somos excessivamente céticos e estamos cada vez mais agarrados ao telemóvel. Vemos torrentes de informação, mas não a sabemos processar, distinguir a qualidade da quantidade e mentira. Anúncios são misturados com notícias, a estimulação do vazio é a lei e o conteúdo que importa é apenas para as elites conscientes. A nossa confiança no mundo e nas suas pessoas desapareceu pois agora todos os mais pequenos e insignificantes erros são propagados para todos verem, sem nunca darmos valor aos benéficos avanços feitos.
Com este excesso de conteúdo acabamos por nos distrair com aquilo que está longe, porque é fácil criticar do teclado do telemóvel, e ignoramos os problemas à nossa frente, pois são difíceis de enfrentar. É mais fácil mandar opiniões sobre o feminismo norte americano via comentário no Facebook do que enfrentarmos a violência doméstica portuguesa à nossa frente.
Perdemos a arte de conversar naturalmente e já nem em Português falamos (é assim que começam nacionalismos). Estamos sempre a olhar para o telemóvel quando temos tempo livre, sempre evitando contacto direto com quem está à nossa frente, onde a conversa e a palavra caem em desuso. Porque, novamente, é mais fácil enterrar a cara no ecrã com notícias longínquas do que enfrentar o silêncio à nossa frente. A incerteza do silêncio contra a certeza do nada das redes sociais.

Sonos foram desregulados, depressões aumentaram, suicídios também. Os jovens são os mais afetados e cada vez mais vivem menos. Durante o seu desenvolvimento emocional são constantemente enfrentados com conteúdos que os estimulam a duvidarem-se e a seguirem modas e não a descobrirem-se e a aproveitar as suas diferenças. A mais viral publicação torna-se a lei para todos seguirem.
A constante barragem de fotos e selfies, de publicações fabricadas e falsas, representativas de estilos de vida inexistentes causam uma ansiedade depressiva nos mais jovens, indicando pressão para eles seguirem o molde. Infelizmente, essa pressão excessiva e constante torna-se numa barreira, levando os adolescentes a ficarem parados com o medo. Nunca se larga o telemóvel para a realidade pois isso implica a possibilidade de perderes a mais recente viral publicação. Viver exclusivamente através do telemóvel, viver exclusivamente através do algoritmo viral. A natureza é para ser fotografada, nunca experienciada.
As câmaras de eco seguem-nos por toda a internet graças ao mundial alcance da Google e do Facebook. Estas empresas, ao terem o seu código integrado em quase todos os sites, são capazes de nos seguirem por toda a internet, quer queiramos quer não (sim, sem saberes, o código deles está em todo o lado). Independentemente das nossas moderadas opiniões, estas câmaras de eco reencaminham-nos para os extremos binários onde uma maior raiva cega é gerada, acompanhada de uma maior interação com a secção de comentários. Mais lucros para uns, mas pior qualidade de vida para os restantes.
A campanha russa de destabilização democrática também usou estes algoritmos a seu favor, criando anúncios extremamente sensacionalistas e fraturantes, que levaram a uma enorme interação. Como tal, os algoritmos das redes sociais fizeram o resto e maximizaram ainda mais estes anúncios, levando-os a ainda mais pessoas. Sim, os EUA já estavam bastante fraturados, mas estas campanhas dificilmente teriam o mesmo impacto sem a ajuda destes algoritmos. Usando depois o efeito câmara de eco, as redes sociais propunham outras páginas similares, igualmente fraturantes e berrantes. Desta maneira, cria-se um constante fluxo de extremismo que sempre atrai, todos os dias, pessoas à plataforma para verem a mais recente publicação com que se indignar. Viva a raiva cega geradora de lucros!
Como estes algoritmos são os mesmo para todos os diferentes habitantes do mundo, o mesmo efeito ocorre por todo o planeta, onde somos todos recondicionados para o mais extremista conteúdo de cada plataforma. A cereja no topo do bolo? Quando lês sobre práticas de moderação e políticas de conteúdo, sobre equipas de moderadores, normalmente estás a ler sobre os EUA. Outros países também têm as suas equipas, mas muito menores. E muitos países onde estas plataformas chegam, não têm o mínimo de controlo. Isto quer dizer que plataformas como o Facebook e o YouTube têm moderação apenas em alguns países, em algumas línguas, apesar de estarem disponíveis em todo o mundo.
Myanmar, com 18 milhões de utilizadores do Facebook, está a enfrentar uma enorme campanha de limpeza étnica contra os muçulmanos Rohingya, campanha essa que é motivada pelas publicações de ódio vistas por milhões de pessoas no Facebook. Como não havia quase nenhuma moderação de conteúdo, durante anos e anos, publicações a incentivar o ódio e o genocídio foram vistas e partilhadas por milhões de pessoas, sendo atribuídas como motivadores de inúmeros assassínios. Até há pouco tempo, o Facebook apenas tinha uma pessoa subcontratada que falava birmanês. Na Irlanda. Uma pessoa para moderar milhões. Hoje, pouco melhor está.
Este exemplo de Myanmar (entre muitos, mesmo muitos) é pertinente para este artigo sobre algoritmos porque, sem eles, sem estes algoritmos maximizadores de visualizações, estas publicações não teriam tanto alcance e não teriam gerado tanta violência e mortes. Isto é o perfeito ideal capitalista: chegar a todos os países do mundo e obter o máximo de lucros sem o mínimo de custos. Que se foda a ordem social!

Para os combater, temos que os revelar
A tecnologia já não é para nós. A tecnologia já não é para nós usarmos. A tecnologia já não é para o nosso proveito. Agora, a tecnologia é para nos minerar informação até ao mais minucioso detalhe e a vender a quem dá mais. A tecnologia agora usa-nos e manipula-nos.
Nós não sabemos como estamos a ser manipulados. Com tal, não podemos lutar contra o que não vemos. Alguma luz é necessária.
Algoritmos controladores do conteúdo que vemos e das sugestões que nos são feitas devem ser revelados. Não é necessário revelar o código usado, mas sim o fluxograma de como o algoritmo funciona. De igual modo, os pesos atribuídos a cada métrica também devem ser revelados. Assim, ao sabermos que métricas é que usam para nos seguir, assim como as processam, podemos finalmente passar a saber como estamos a ser manipulados. Como passo final, todas as redes sociais que usam estes algoritmos devem oferecer alternativas sem eles, como o Twitter faz. Deve haver a opção de escolher entre ordem cronológica e ordem alterada.
Em conjunto com estas revelações algorítmicas, as políticas de moderação e de remoção de conteúdo também têm que ser completamente transparentes. Seria de esperar que já o fossem, mas não são. Os termos e condições são públicos, claro. Mas como eles são executados é que ninguém sabe. Uma peça do The Guardian revelou como o Facebook modera a sua plataforma e nos documentos revelados, algumas práticas questionáveis eram permitidas. Certos conteúdos de ódio eram permitidos enquanto que outros não. No final de contas, o que era certo era que não havia o mínimo de consistência nas políticas do Facebook.
Este executar dos Termos e Condições também tem que ser transparente, completamente visível a todos, sem ofuscações ou contornos. Todas as plataformas que executam este tipo de moderação devem tornar públicas as suas escolhas e práticas.
Em parte, estas práticas não são reveladas para evitar confrontos e má publicidade. E, infelizmente, apesar de elas existirem, não significa que são aplicadas, como já vimos pelo exemplo de Myanmar e pela falta de moderadores. Outro exemplo, novamente do Facebook, é o das revelações onde moderadores eram instruídos a não banirem menores da plataforma, para maximizar o número de consumidores, apesar de estarem a cometer ilegalidades perante leis nacionais.
E para evitar gastos em recursos humanos moderadores, estas plataformas estão a desenvolver inteligências artificiais para patrulhar toda a rede, procurando infrações. Este plano já apresenta enormes falhas, logo de início, pois mesmo as mais avançadas inteligências artificiais de hoje não são minimamente capazes de detetar as nuances do diálogo humano, das nossas interações. Muito menos em todas as línguas do mundo. No entanto, se estes algoritmos forem implementados, eles também terão que ser revelados, clarificando o que procuram e como.
Enfim, os exemplos de simples e puro desrespeito pela lei e pelos mínimos da decência humana no Facebook são amplos. E no Twitter. E no YouTube. E etc.
Não, revelar a natureza do problema não o resolve. No entanto, não conseguimos lutar contra o que não vemos, contra as sombras. Alguma luz é necessária para definirmos o caminho a seguir. Esta revelação destes algoritmos e destas práticas moderadoras são o primeiro passo para podermos entender o funcionar destas plataformas.