Poucos são os animais que podem ser considerados minimamente inteligentes, com características como uso de ferramentas, planeamento para o futuro ou cantar. O ser humano, claro, é o mais inteligente. As nossas capacidades são inigualáveis, as nossas mentes tão vastas quanto misteriosas. O nosso pensamento é imensamente incrível e isso abre-nos portas novas a cada dia que passa. Construindo e evoluindo sobre gerações passadas, em termos artísticos e matemáticos, científicos e emocionais, todos os dias, há algo novo para aprendermos, graças ao nosso brilhante cérebro.
Porque é que, então, nos degradamos com tecnologia absolutamente deplorável no seu desenho, com tecnologia aberrante nas suas constantes chamadas de atenção, tecnologia dita inteligente que aparenta ser tudo menos isso?
Consumir vídeos, quaisquer que eles sejam
O YouTube tem, por defeito, ligada a funcionalidade de reprodução automática. No final de cada vídeo, um novo é automaticamente reproduzido. Um constante consumo de vídeos. O vídeo que é reproduzido a seguir é decidido por um algoritmo que, com base no historial de visualizações, vai propor algo relacionado. Mas não necessariamente relacionado com o que tu queres ver.
Sendo a Google uma empresa na bolsa, ela responde primeiramente aos lucros. E para fazer isso, tem que maximizar as visualizações (daí a reprodução automática estar ativada por defeito). Por esta razão, o vídeo sugerido pode estar pouco relacionado com o teu historial e mais com os vídeos mais consumíveis. Estas recomendações têm estado na luz da ribalta nos recentes meses.
Vídeos violentos e sexuais aparecem na secção infantil da aplicação. No seguimento de tiroteios, teorias da conspiração inundam os resultados de pesquisa. E se estiveres inofensivamente a ver comuns vídeos no site com a reprodução automática ativada, rapidamente ela te sugere assistir a vídeos ofensivos e odiosos. Isto porque os algoritmos do YouTube identificam estes vídeos como sendo os mais cativantes de visualizações.
Relacionado, está o algoritmo do YouTube que prefere canais que produzem vídeos em quantidade, repetitivos e monótonos. Isto cria um stress enorme em criadores de vídeos do YouTube que sentem uma pressão em estar constantemente a produzir conteúdo, bom ou mau, cheio ou vazio, para poderem ter alguma visibilidade (no Twitch é similar). Para piorar, mudanças a esse algoritmo são feitas regularmente sem nenhuma transparência. Os resultados na saúde mental de quem produz são visíveis e claros, pois a sua estabilidade é quase nula.
Saindo do YouTube, mas continuando na Google, o motor de busca mais usado no mundo também tem a sua quota parte de mentiras e falsidades. Usando respostas “inteligentes”, certos blocos de informação são apresentados como resultado direto à pesquisa. Como esses dados são apresentados quase como respostas às nossas perguntas, eles são tidos como verdadeiros. O problema é que ninguém verifica essas respostas e muitas vezes estão erradas, inundadas com má ciência, informações erradas ou teorias da conspiração. Estes resultados têm sido manualmente limpos para evitar a propagação de erros como sendo verdade. Contudo, deve-se afirmar que o problema relativo às deturpadas respostas “inteligentes” do Google aplica-se mais a outros países cujas populações estão a passar por maiores níveis de instabilidade (visto que, muitas vezes, esses resultados são desviados pelas ações da própria população).
Redes antissociais
No Twitter, Instagram e Facebook, nós escolhemos as páginas que queremos ver com o nosso gosto, mas não são as que nós vemos pois quem decide isso são as empresas. Através do uso de algoritmos “inteligentes”, estas redes sociais ignoram a ordem cronológica e os nossos “gostos” e modificam aquilo que nós vemos segundo o que eles querem. Publicações de páginas deixam de aparecer, publicações antigas são repetidas várias vezes, e a ordem temporal é completamente desregulada.
Nós vemos o que as empresas querem que nós vejamos. Elas argumentam que é para melhorar as nossas experiências, enquanto usamos estas plataformas. Mas até agora têm sido apenas uma fonte rica de problemas. Quem tem páginas, queixa-se que as suas publicações não chegam aos seus seguidores. O alcance é agora muito menor, se não comprarem anúncios. E os utilizadores queixam-se do spam, das publicações repetidas, do conteúdo de qualidade minúscula e do degradar da sua sanidade mental. Aliás, o Instagram foi considerada a pior rede social para a saúde mental de jovens.
Na mesma linha de melhorias do produto, encontram-se as sugestões de amigos, os eventos sugeridos, as páginas que talvez gostes, e os sites e aplicações que controlam e seguem tudo o que tu fazes, dentro e fora da rede social. Isto porque, apesar de repetirem vezes sem conta que estão preocupados com o bem-estar dos seus utilizadores, estas redes sociais têm como primeiro incentivo satisfazer os seus investidores. E estas medidas maximizam a retenção de utilizadores, onde qualquer minúscula ação é digna de uma notificação.
Considerem a quantidade de vezes que o Facebook esteve envolvido com problemas do género. Seria de esperar que, por esta altura, certos problemas básicos já estivessem resolvidos. Mas não estão. E continuam. Ainda piores do que alguma vez foram. Como, em geral, toda a população mundial está a ficar enfadada com este abuso e invasão de privacidade, medidas estão a ser tomadas, tanto pelas redes sociais como por quem faz telemóveis. Mas, novamente, não porque é o correto a fazer, mas porque a pressão se estava a tornar incontornável.
Isto porque, se estas empresas fizessem aquilo que os utilizadores querem – menos spam, ordem cronológica, ver publicações das páginas que escolheram, menos notificações inúteis, mais controlo – teriam muito menos retornos no investimento pois as pessoas iriam passar menos tempo na rede social a vegetarem em frente a um fluxo de publicações vazias, mas cativas. Ao invés, os utilizadores teriam um maior controlo, uma maior felicidade, uma maior qualidade de uso, mas, gerariam menos dinheiro.
Tecnologia de inteligência questionável, mas consequências óbvias
Considerem agora a incrível, completamente distanciada da realidade cegueira destas empresas. Com o aumentar do descontentamento das populações em torno destas empresas e dos seus produtos, com o uso destes produtos para destabilizar democracias e alimentar violência, com o a cada vez a aumentar medo de sermos substituídos por máquinas, com a saúde mental a decrescer visivelmente, com o perder do controlo da nossa tecnologia, estas empresas acham bem adicionar mais funções “inteligentes” que nos tirem ainda mais controlo.
Estas tão invasivas, específicas táticas são agora usadas para prever como falamos. A Google tem uma nova função no GMail que prevê o que estás a escrever e propõe o restante texto. No Google Maps até classificações propõe, assumindo como tu vais gostar ou não deste ou daquele restaurante (muitas destas funções preditivas estão apenas disponíveis na língua inglesa, não em Portugal). Agora o Android até vai passar a sugerir as aplicações que queres usar. Para que nunca desvies os olhos do teu telemóvel. O culminar deste extremismo é o Google Duplex. Uma Inteligência Artificial que faz chamadas por nós e fala com pessoas reais para marcar consultas, reservar mesas ou encomendar comida. A Amazon tem uma câmara que sugere roupas a vestir. A Alexa, a sua assistente pessoal, está ligada às contas dos utilizadores, para melhor poderem vender produtos (embora as taxas de vendas via a Alexa são muito baixas).
Se alguma vez compraste alguma coisa em algum site online, de certeza que logo a seguir viste uma muito persistente quantidade de anúncios a seguirem-te por toda a internet. Anúncios esses que te mostram os produtos que acabaste agora mesmo de comprar. A Amazon tem uma máquina de vigilância e testes A-B tão avançada que até os teus movimentos do rato preveem, ajustando o site em concordância. Por um lado, as mudanças são boas, melhoram o nosso uso do site. Por outro, são usadas para maximizar todos os mais pequenos cliques para que te sintas o mais confortável possível a gastar dinheiro, sem te aperceberes.
Até um certo ponto, algumas ajudas são agradecidas como o auto completar de pesquisas, por exemplo. Mas apenas até um certo ponto. Porque mesmo aí, essas sugestões podem influenciar os nossos objetivos individuais em torno dos comuns. Algo que é um grande problema.
O perder das nossas identidades.
Quando se fala em algoritmos que nos dão conteúdo que eles acham adequados, esses algoritmos não são específicos a nós. Estas empresas não criam um algoritmo que vai ser diferente para cada pessoa. Não. Elas criam um singular algoritmo para todo o mundo, para todos os clientes em todos os países. Seja esse algoritmo usado nos murais das redes sociais, nas predições de texto ou nas recomendações de compras.
Isto quer dizer que, com cada uso que nós damos a estes algoritmos, com cada pequena função que nós delegamos, com cada um gesto que as máquinas completam em vez de nós, a nossa identidade também se perde. Os pequenos detalhes, as pequenas características, as distinções que existem entre nós, as diferenças no português usado, tudo isto perde-se para um uniforme e indistinto algoritmo. E nós não reparamos nisso.
Deixamos então de ser indivíduos numa população e passamos a ser unidades num conjunto.
Zangamo-nos com os mesmos temas, choramos com os mesmos vídeos, respondemos da mesma maneira, usamos as mesmas frases, tiramos as mesmas fotos, diluímos identidades regionais e destruímos diferenças para cabermos todos dentro dos mesmos algoritmos. Cada inútil notificação do telemóvel, cada vibração, cada som, cada chamada vazia de atenção é respondida com um impulso já mais do que ensaiado onde o que quer que seja que estejamos a fazer é interrompido. Este ritmo é de tal maneira impactante que nós somos literalmente menos capazes cognitivamente quando estamos com o nosso telemóvel. Somos literalmente mais burros.
Com cada algoritmo “inteligente” que é implementado à nossa volta, cedemos algo íntimo a um computador. E pouco a pouco, isso torna-se num grande problema.
Por um lado, não é nada novo. Se quisermos, temos a analogia dos media e de como eles atuam, para comparar às atuais redes sociais. Os media em Portugal (e pelo mundo fora) já são dos mais ínfimos que existem, onde repetem as mesmas histórias esticadas e diluídas sobre o futebol por todo o dia por todos os canais. Jornalismo já não existe. Opiniões são propagadas como factos sem qualquer restrição e as nossas emoções são severamente manipuladas, como podemos ver pelo exemplo dos fogos florestais. Emoções são privilegiadas em detrimento dos factos. Factos esses que são difíceis de vender pois apontam não para incendiários como os culpados, mas todos nós. Ora, como estes canais são vistos pela maioria da população, eles atuam indiretamente como os algoritmos inteligentes: moldam-nos todos ao mesmo tempo num cego, ignorante uníssono grunhido enquanto apontamos a culpa a todos menos a nós. Cedendo por completo o pensamento, a crítica.
Mas, como é óbvio, existe boa tecnologia inteligente
Mas, antes de o artigo acabar, deve-se mencionar que nem toda a atual tecnologia é má e nefasta. Apesar das inteligências artificiais estarem hoje em voga, elas já existem há várias décadas. Também têm sido usadas até agora em vários produtos, sem nós o sabermos. Quando um editor de texto corrige o nosso português ou quando a aplicação de mapas nos diz a rota mais rápida, alguma forma de aprendizagem de máquina está a ser usada. Se o teu banco alguma vez detetou alguma possível fraude, foi com recurso a inteligências artificiais. Outro exemplo mais recente é o das recomendações do Spotify, que rapidamente se tornaram na função mais usada do serviço. Por uma simples razão: esta recomendação de músicas é específica a cada pessoa e não substitui ou nos controla. Nós escolhemos se queremos ou não ouvir aquelas recomendações e podemos as ajustar, como bem pretendermos. Ou seja, nada nos é forçado e o controlo é nosso.
Aquelas fotos que saíram mal, mas ainda podem ser salvas? Quando as colocamos num programa que as automaticamente melhora, muitas vezes é usada uma forma de aprendizagem de máquina. Aliás, as versões mais recentes do Photoshop usam várias inteligências artificiais para fazerem uma série de melhorias e correções.
Futuramente, com o desenvolver desta tecnologia, diagnósticos médicos podem ser melhorados e carros autónomos podem-nos livrar de uma atividade perigosa e consumidora de tempo. Estes mais complexos usos vão, contudo, requerer muito tempo a aprimorar até estarem prontos. Num mundo onde cada vez mais geramos dados no nosso dia-a-dia, encontrar bons algoritmos para processar esses dados é importante. Um dos melhores exemplos, se bem implementado, é o de melhor corresponder um trabalhador com um empregador. Considerem as inúmeras ofertas de emprego que existem e a dificuldade em as navegar todas. Com uma inteligência artificial, seria muitíssimo mais fácil encontrar o melhor trabalho para as nossas capacidades e/ou objetivos.
O que distingue os bons usos dos maus destas tecnologias inteligentes é o controlo que nós temos sobre elas. Bons usos são aqueles que são aplicados quando nós queremos, nas nossas condições. As sugestões de percurso do Google Maps ajudam-nos a chegar onde queremos mais depressa. Mas as sugestões sobre como nós gostamos ou não de um certo restaurante já nos induzem por uma certa linha de pensamento influenciado. As sugestões do Spotify não interferem nem forçam nada durante o normal uso do serviço. Mas se a cada mínima alteração a essas recomendações, nós recebêssemos uma notificação, o serviço passaria a ser muito menos agradável e mais taxativo.
Deve-se, portanto, distinguir más implementações de uma tecnologia do seu verdadeiro potencial. Abstraindo das inteligências artificiais e passando para design inteligente, nem tudo que tenha esse nome colado nas características o é. Ao fim ao cabo, compete-nos a nós nos educarmos e não cairmos em rápidas e vazias vendas de uma tecnologia que ainda precisa de mais tempo na incubadora. As inteligências artificiais não são más, mas quando mal-usadas, podem ser muito negativas.
Isto não é novo, não somos escravos, ninguém nos forçou
Mentalmente, os problemas de saúde derivados das tecnologias de hoje são piores do que reconhecemos. Depressões e isolamentos aumentaram, apesar de podermos agora falar com toda a população mundial num abrir e fechar de olhos. Grupos de ódio organizados causam danos e assediam constantemente quem não gostam. Mulheres e pessoas de cor são os alvos mais comuns. Cada vez mais o discurso se degrada com o Twitter cheio de bots e mensagens de ódio e o Facebook com comentários completamente desligados da realidade, onde quase ninguém lê nada, mas partilham tudo.
Com tantas maneiras diferentes de comunicarmos, aparentemente, a mais original foi-se perdendo: a nossa voz. No Reino Unido, 28% das crianças entre 4 e 5 anos não conseguem comunicar em frases completas. No nosso dia-a-dia, é regular uma conversa não ser tida honestamente sem a presença do telemóvel. Cada vez mais escolhemos olhar para os ecrãs do que para o que nos rodeia.
Com pequenas mudanças nas cores e nos sons das notificações, o nosso vício nos telemóveis é artificialmente aumentado. Não só, mas qualquer minúsculo acontecimento nas redes sociais é digno de uma notificação, para sempre usarmos o telemóvel, para nunca o largarmos, enquanto aspiram todos os dados possíveis.
Nós somos criaturas sociais. De uma maneira ou de outra, vamos procurar um grupo, uma tribo, um conjunto confortável de variáveis às quais nos moldamos. Isto, por si só, não é mau. O problema surge quando forças externas forçam esta comum normalidade por caminhos destrutivos.
Não, estas empresas não nos querem controlar nem estão a popular os seus serviços de propósito com mau e odioso conteúdo de teorias da conspiração. Nenhum destes gigantes tecnológicos está a deliberadamente nos infetar com ceticismo pelas instituições e governos que nos rodeiam. Mas na sua singular busca de satisfazer investidores e aumentar lucros, princípios básicos de ética e moral são ignorados. Constantemente.
Nesta era de híper capitalismo, de desigualdade imensa, de lucros astronómicos e empregos precários, é fácil para estas empresas tomarem estas iniciativas completamente predatórias de uma profunda exploração do consumidor. As agências regulatórias só tomam iniciativa demasiado tarde, ou nunca. E nós, tendo acesso à melhor qualidade de informação na ponta dos nossos dedos, continuamos os nossos ignorantes comportamentos de reagir a títulos sensacionalistas e falsos.
As soluções para este problema não são binárias, fáceis de implementar nem de ação rápida. Como vimos, os media já nos moldam de uma maneira ou outra com as suas câmaras de eco e manipulação de factos e emoções. E para fundamentalmente mudar este problema, temos que ir não à fonte de erros, mas sim ao recetor que os aceita. Ou seja, apenas com educação é que melhoramos esta situação. Todas as restantes medidas são de secundária importância.
Estas tecnologias não nos explorariam se nós não o deixássemos. Fomos nós que mergulhamos de cabeça nelas e nos entregamos por completo. Somos nós que nunca sentimos a necessidade de procurar mais e nos contentamos com os títulos sem lermos o conteúdo. Por este argumento, a culpa destas tecnologias é nossa, por nos deixarmos ser explorados.
Como tal, a nossa educação tem que ser mais crítica, mais pausada e mais aberta. Não nos podem ser simplesmente ditados os factos sobre a biologia do mundo, mas também como os interpretar e criticar. Devemos ser ensinados os bons e maus aspetos de tudo à nossa volta e devemos sempre pedir uma explicação e não aceitar uma declaração. Quando vamos às redes sociais, devemos evitar a secção de comentários e as partilhas sensacionais. Páginas que produzem em quantidade devem ser ignoradas em favor das que produzem menos, mas melhor.
Como pequeno, mas importante passo, as notificações dos nossos telemóveis podem ser muito mais controladas para que apenas aplicações de comunicações importantes nos notifiquem. Mensagens, chamadas e email podem emitir uma vibração ou um som, mas não ativar o ecrã. Jogos podem ter as suas notificações completamente desativadas para que apenas apareçam no centro de notificações, sem nos distrair com chamadas de atenção inúteis. Os próprios sistemas operativos podem passar a incluir regras para as aplicações instaladas onde dependendo do tipo de aplicação, as suas notificações mudam por defeito. De igual modo, as aplicações das redes sociais devem ser desinstaladas dos telemóveis, para que não enviem um mar de notificações vazias. Não só, são muito pesadas na memória, consomem muitos recursos de computação e bateria. Como substituição, os sites móveis podem ser usados.
Sempre que possível, devemos desligar algoritmos inteligentes, desativar tudo aquilo que possa tomar decisões por nós sem nós sabermos como. Reproduções automáticas e recomendações de uma máquina devem ser ignoradas e descartadas. Devemos procurar segundo os nossos detalhes e vontades, preservando a nossa identidade sem negarmos a de outros. Devemos nos abrir e ouvir e não fechar e repetir. Preservarmos a nossa individualidade não implica sermos fechados e intolerantes. Não. Devemos absorver as diferenças não pela sua aparência, mas pelo seu todo. Devemos compreender o que está à nossa volta e não simplesmente reagir e partilhar numa rede social. Só com esta melhor, crítica, progressiva, educação é que conseguimos nos compreender.
Quanto a possíveis legislações, muito pode ser feito, mas apenas como algo secundário à melhoria da educação. Boa educação é perene, legislações são temporárias.
Empresas podem ser forçadas a demonstrar como os seus algoritmos funcionam, não em detalhe técnico (para proteger a propriedade intelectual) mas em traços genéricos, para que possamos melhor compreender como o conteúdo à nossa frente foi manipulado. Todos os dados que são capturados da nossa utilização destas plataformas também podem ser expostos para passarmos a saber como exatamente é que somos vigiados enquanto usamos estes produtos “inteligentes”.
Design que é criado para deliberadamente viciar e manter o utilizador o máximo de tempo na plataforma deve ser ilegalizado e eliminado. Os nossos telemóveis devem passar a nos dar muito mais controlo sobre como eles operam e nos vigiam. De igual modo, todas estas redes sociais devem fazer o mesmo, onde práticas abusivas e exploratórias são eliminadas.
E sempre que alguma empresa claramente passar os limites, multas severas devem ser implementadas, não apenas à empresa, mas aos envolvidos nas decisões, aos executivos e aos acionistas. E quanto a nós, temos que largar aquilo que nos danifique e impeça de viver.
Extremismos não são necessários. Não é com mais ou melhor tecnologia que resolvemos o problema. Mas também não é solução a eliminar toda. Temos que voltar a um equilíbrio. Como estas tecnologias são novas, é normal haver este período de exploração, onde os limites da tecnologia e do utilizador são explorados. Estando as consequências estabelecidas, limites têm que ser criados para que estas tecnologias possam ser usadas de um modo sustentável no futuro. Redes sociais não são más. Inteligências artificiais não são perigosas. Obter informações de utilizadores não é invasivo. O que é mau, perigoso e invasivo é quando estas tecnologias são mal-usadas, enquanto as empresas nos mentem sobre elas e nós as continuamos a usar, sabendo da mentira.
Atualização: incluído um parágrafo no final sobre mudar as notificações nos telemóveis.