As fundações das inteligências artificiais usadas hoje remontam aos anos 40, quando discussões e artigos científicos davam os primeiros passos no tema. Nos anos seguintes (50s e 60s), a área foi lentamente crescendo, sendo criados pequenos algoritmos de uma camada. Mas como os resultados eram instáveis, o investimento congelou.
Nos anos 80 houve um ressurgimento de investimento e algoritmos mais complexos foram desenvolvidos. Nessa década, os primeiros carros autónomos surgiram, com recurso a estes novos, melhorados algoritmos. Mas, como da primeira vez, muito foi prometido e pouco entregue, houve um novo congelar de investimento.
Contudo, mesmo sem grandes investimentos, a investigação nunca parou. Nos anos 90 ressurgiram de novo, e nunca mais pararam desde então. Programas de reconhecimento de caracteres escritos foram criados. Palavras ditas por um humano eram agora reconhecíveis pelo computador. Veículos autónomos ressurgiram e tornaram-se cada vez mais robustos. O supercomputador Deep Blue venceu Garry Kasparov num jogo de xadrez.
Desde então, as inteligências artificiais têm vindo a ser usadas em inúmeros produtos comerciais como no Kinect, em redes sociais, em anúncios online, nas previsões de rotas mais rápidas em aplicações de mapas ou nos filtros de lixo no nosso correio eletrónico.
Um rotineiro exemplo é o da correção de erros ortográficos nos editores de texto. Esta função começou com simples correções ortográficas, com recurso a algoritmos inteligentes, já em 1971. Com o tempo, foram evoluindo e estes corretores agora usam completas inteligências artificiais para verificar a semântica, género, estrutura da frase e até a redundância de certas palavras.
Esta recente explosão do uso de inteligências artificiais (IAs) deveu-se maioritariamente a dois pontos: enormes capacidades de computação (maioritariamente na nuvem) e gigantes quantidades de dados. E é aqui que entra o problema. Por causa da evolução tecnológica que temos vindo a observar, a esmagadora maioria do poder de computação e dos grandes dados ficaram concentrados no lado de grandes empresas. Igualmente concentrado nesse lado, ficaram enormes quantidades de dinheiro.
Este enorme desnível levou ao grande problema que as IAs enfrentam: interesses económicos e privados tomaram conta desta tecnologia, sem que as universidades públicas tivessem tempo para a maturar o suficiente.
Grandes salários no privado roubaram os melhores investigadores do público
Durante o seu nascimento até há poucos anos, IAs eram maioritariamente investigações universitárias, sendo pouco usadas em produtos comerciais. E quando eram usadas, eram em mais pequenas implementações, como no caso do corretor de texto ou nas rotas mais curtas nos mapas.
Só que no virar da década, a partir de 2010, essas investigações começaram a dar resultados, demonstrando muitas possíveis aplicações lucrativas. Assim que os gigantes tecnológicos observaram as possibilidades das inteligências artificiais quando aplicadas em conjunto com as suas em crescimento nuvens de computação, enormes quantidades de dados e de dinheiro no banco, começaram a absorver todo o talento que podiam, o mais rapidamente possível.
Investigadores e doutores foram contratados de universidades com salários de 6 dígitos, ou mesmo milionários. Professores foram também contratados com salários e opções muito agressivas, com as quais universidades públicas não conseguiam competir. Isto levou a dois preocupantes problemas: não só a investigação científica que estas pessoas estavam a fazer foi desregulada, como também já não estão disponíveis para ensinar a próxima geração.
Esta desgovernada caça a talento universitário com salários milionários desregulou completamente a continuação de investigação científica sobre IAs. Isto porque é extremamente raro ver empresas privadas a realizarem genuína investigação, pois apenas universidades públicas pelo mundo fora é que a verdadeiramente fazem. Como os investigadores vão agora apenas desenvolver algoritmos com aplicações comerciais, não vão investigar ou imaginar alternativas futuras para fazer crescer a área. A ciência fundamental é posta de lado para dar lugar a meras melhorias e afinamentos industriais.
Não só, mas empresas privadas também não partilham os seus conhecimentos e não educam o exterior sobre as suas descobertas. As empresas vão recolher os lucros desses melhorados algoritmos, construídos com recurso a investigação feita em universidades, mas vão impedir que esses investigadores ensinem alunos para que eles amanhã construam maiores e melhores tecnologias. O processo de transmissão de informação, de educação, fica desregulado. Tudo para evitar que a tecnologia saia do controlo da empresa para a competição.
Ou seja, estas empresas, na sua sedenta busca por talento, conseguiram angariar muitos investigadores, mas ao custo de castrar e abrandar o futuro de toda a área.
Mas a cereja no topo do bolo é como estas empresas usam todas as jogadas existentes para pagarem o mínimo de impostos possíveis. E como as universidades públicas são financiadas com impostos, se estas empresas fogem à sua responsabilidade social, sendo elas grandes geradoras de capital, as universidades perdem imensamente (assim como toda a sociedade, naturalmente). Consideremos agora a dupla hipocrisia, o duplo insulto: não só estas empresas capturam os melhores investigadores e professores, negando futura investigação e educação, mas também negam o dinheiro necessário ao correto funcionamento destas instituições, instituições essas que produzem muita da ciência que levou à criação destas empresas.
É absolutamente incrível a cegueira destas empresas por lucros. Absolutamente incrível.
Esta desprezível atitude destas empresas pela ordem social leva a sérios distúrbios no funcionamento e sustentabilidade a longo prazo da sociedade. As universidades não fazem ciência para o ar, não o fazem só porque é bonito ou interessante. A ciência feita em universidades é dos mais importantes pilares para a sustentabilidade a longo prazo de um país. É absolutamente imperativo que nós dediquemos o nosso melhor talento aos mais importantes problemas que enfrentamos, usando as melhores estruturas possíveis.
Quando estas empresas aspiram todo o talento de uma área científica, essa área morre porque, como as empresas apenas desenvolvem para os lucros do fim do dia e não para o futuro sustentável da tecnologia, a investigação científica deixa de ser uma prioridade. O futuro já não está assegurado. Elas depois usam o seu gigante tamanho para patentear tudo e mais alguma coisa, por mais inútil que seja a patente, tudo para negar a competição de outras empresas. Sim, porque, hoje em dia, as patentes não são usadas como proteção de propriedade intelectual, mas sim para mandar avisos a outras empresas e entrar em batalhas litigiosas.
Consegue-se desta maneira concentrar em 3 ou 4 gigantes tecnológicos a esmagadora maioria do talento e tecnologia disponível, ficando as restantes empresas com os restos sob a forma de código aberto. E se alguma empresa em crescimento apresentar uma tecnologia minimamente ameaçadora, essa empresa ou é hostilmente copiada e neutralizada ou é comprada e integrada. E em caso de aquisição, se estava um projeto em desenvolvimento de algo novo ou diferente, é comum esses projetos serem cancelados para depois serem integrados nos gigantes. Projetos esses que normalmente começaram em universidades, com a ciência lá feita.
E quanto às empresas que lutam e tentam sobreviver esta hostilidade, ou mesmo outras empresas de outras áreas, é lhes muito difícil progredir, crescer e atrair o mínimo de bons programadores pois simplesmente não têm o dinheiro ou a fama para tal. Este problema é de tal maneira grande que tem uma escala global: as maiores empresas de cada continente aglomeram todo o talento mundial.
Perde-se a investigação científica e a diversidade de pensamento. Perde-se a educação para as massas. Perde-se o progresso industrial comum. Os jardins fechados proliferam. Morre assim a competição.
Mas ganham-se enormes lucros para alguns investidores.
Falta de investigação científica básica levou a vários problemas nas IAs
A falta de investigação científica e transmissão de conhecimento para as próximas gerações demonstrou consequências pesadas na área das inteligências artificiais.
Sim, as IAs têm vindo a ser desenvolvidas há mais de 50 anos, mas apenas recentemente é que a investigação atingiu níveis de grande crescimento. No entanto, esses níveis foram rapidamente desacelerados pelas captações de talento e respetivos abrandamentos nas investigações universitárias. Com a indústria a saltar em cima de uma tecnologia inacabada, desregulando o seu crescimento natural, ela não pode ser completamente desenvolvida até à maturidade. Esta mudança levou a que empresas pusessem a correr algo que ainda não conseguisse andar.
Como resultado, algoritmos ainda por desenvolver foram implementados em condições reais, afetando milhões de pessoas. Tudo isto sem se corretamente compreender o seu funcionamento.
“Acabei de escrever o código, não sei o que ele faz”
Um dos principais problemas é simplesmente não compreender o código que foi escrito. Devido à rapidez com que empresas querem vender novos produtos, não é costume haver tempo para respirar e verdadeiramente compreender os conceitos básicos. Isto leva a que programadores operem nos níveis mais altos do código, ajustando apenas variáveis superficiais, sem genuinamente compreenderem o seu impacto nos resultados. Isto deve-se, em parte, porque estão a tentar resolver problemas complicadíssimos.
Idealmente, algoritmos mais simples seriam usados em problemas incrementalmente complicados, onde começam com algo pequeno, escalando para algo mais complexo. Com esta atitude (e tempo), investigadores poderiam implementar gradualmente alterações e novos blocos de código, observando com calma as mudanças aos resultados. Poderiam melhor compreender o seu funcionamento, compreendendo o que cada bloco de código faz e como ele funciona com diferentes bases de dados e problemas.
Mas a realidade é outra. Como empresas não têm tempo a perder (pois isso significa perder dinheiro para a competição), os algoritmos são implementados sem serem compreendidos. É regular código ser adicionado ao programa principal, sem se saber ao certo como é que esse código vai influenciar os resultados. Sabe-se mais ou menos como um fragmento de código funciona, mas não se sabe como ele vai interagir com o código principal ou como isso vai afetar os resultados. Um algoritmo complexo pode ser simplificado e acabar por funcionar melhor enquanto que outro algoritmo simples pode ser complicado e também passar a funcionar melhor. Porquê? Não se sabe ao certo.
Aliás, como estes algoritmos são ainda tão novos e não testados, como eles são tão incompreendidos e com funcionamentos incertos, é perfeitamente possível considerar que eles assim o sejam porque não foram bem desenhados e são simplesmente maus e ineficientes. Num futuro muito próximo, eles podem vir a ser completamente modificados ou mesmo eliminados e substituídos por outros.
Para piorar a situação, estes complexos algoritmos são usados em igualmente complexos problemas (como por exemplo, compreender e interpretar imagens ou textos). Nestes problemas, onde existe uma enorme variedade de resultados, é difícil encontrar um padrão, uma linha base, que permita a sua melhor compreensão.
Por os investigadores sentirem pressões das empresas para implementarem rapidamente complicados códigos em complicados problemas, acabam por não saber o que fazem, nem como aqueles resultados foram conseguidos. Tudo porque não houve tempo suficiente para maturar a compreensão antes da implementação final.
Resultados inexplicáveis e inquestionáveis
Relacionado com este problema, está outro igualmente perturbador: os programadores não sabem como é que as IAs processam informação, e tomam as decisões que tomam. Sabemos a informação inicial e o resultado final, mas não sabemos as decisões que foram tomadas ou porquê. Sim, parece exotérico, mas é verdade. Algoritmos programados por humanos, em sistemas binários, têm resultados inexplicáveis e pior, inquestionáveis.
Aqui volta a entrar a complexidade dos algoritmos: como são usadas redes de cálculos extremamente vastas e interligadas, é impossível para um grupo de pessoas observar esses cálculos e os compreender. Devido ao enorme número de cálculos efetuados por segundo, os seres humanos simplesmente não os conseguem compreender. Este problema é agravado pelo aumento da complexidade do problema. Quão mais complexo for o problema, mais complexo vai ser o algoritmo para o resolver. Consequentemente, ainda mais difícil é compreender o processo de decisão interno.
E por um lado, isso é aceitável. Já por isso temos IAs para realizar estes difíceis cálculos. Mas por outro, é mau pois estamos completamente ignorantes a como estes tão importantes algoritmos funcionam.
No caso de um algoritmo usado para prever doenças, ele foi muito bom a prever esquizofrenia. Mas ninguém sabe ao certo como. Não se sabe quais as variáveis que o programa achou importantes, não se sabe quais os valores tidos em conta e não se sabe como esses valores foram interligados e processados. A máquina detetou um padrão, mas nós não sabemos como. Outro exemplo, também na área da saúde, é o Watson da IBM, que foi usado para propor o tratamento mais eficaz para pacientes oncológicos. Este algoritmo tinha uma grande instabilidade nas suas respostas, onde podia propor um tratamento de acordo com o do médico ou então outro completamente diferente. Mas como a máquina não se sabe explicar, para argumentar o porquê do tratamento proposto, nenhum médico confiou nela, e o projeto tornou-se num fiasco. Estes são apenas alguns exemplos, mas existem tantos mais quantas IAs existem.
Esta explicabilidade do processo de decisões é extremamente importante para questões de responsabilidade. Se algo corre mal, foi porquê? Porque razão foi tomada esta decisão e não aquela? Se nós não conseguirmos responder a estas perguntas, então não podemos implementar IAs em situações de alto risco. A saúde é um exemplo, assim como a condução autónoma. Caso ocorra um acidente, qual foi o motivo?
Além da responsabilidade, outra questão surge que é como podemos melhorar algo que não conhecemos? Se não sabemos como os algoritmos funcionam, se não sabemos quais algoritmos usar em qual situação, se não sabemos como eles reagem a diferentes bases de dados, como os podemos melhorar? A partir deste ponto, a inovação deixa de ser pensada e passa a ser uma de aleatoriedade, ao calhas. Por este ponto de vista, é justo afirmar que IAs são, na realidade, muito estúpidas e nada inteligentes, visto utilizarem várias técnicas equivalentes a força bruta refinada (aparentemente inexplicável). Como existem hoje, por IAs precisarem de bases de dados tão grandes e processadores tão rápidos, gerando resultados questionáveis, pode-se argumentar que elas são muitíssimo pouco eficientes. Um exemplo deste problema é como novos algoritmos muito mais eficientes estão a ser hoje desenvolvidos (em universidades, claro) que conseguem obter taxas de erro super baixas mas com bases de dados muito menores que as atuais IAs.
Se as IAs tivessem sido desenvolvidas com calma, este problema não se manifestaria de uma maneira tão pronunciada. Se as IAs tivessem sido desenvolvidas com a investigação científica adequada, teria sido mais fácil implementar alterações no código que nos dissesse o porquê de cada decisão. Mas como os investigadores não sabem como o código funciona ou como ele toma decisões, e as empresas não estão interessadas em explicações, mas sim em resultados, não é expectável que mudanças ocorram em breve.
Ou seja, IAs podem já fazer parte da paisagem tecnológica atual, mas são extremamente ineficientes e inquestionáveis. Novamente, a pressa de implementar código para obter resultados traiu a investigação científica fundamental.
Se não há abertura nos artigos, não há reprodutibilidade
E por fim, existe um terceiro grande problema: a má reprodutibilidade de estudos científicos sobre IAs. Um dos pilares fundamentais da ciência é o da revisão e repetição de estudos. Esta repetição existe para reverificar as descobertas feitas no estudo original e eliminar maus estudos. Idealmente, num estudo bem feito, a sua reprodutibilidade é infinita, mesmo mudando as condições de teste. Mas na realidade, isso verifica-se poucas vezes. No caso das IAs, essa reprodução de estudos está a entrar em crise porque ninguém está a conseguir replicar estudos sem grandes diferenças do original. E tendo em conta os problemas acima descritos neste artigo, isto não é surpreendente.
Como uma grande parte dos investigadores está em empresas, não é no interesse dos lucros partilhar todo o código e todas as variáveis usadas. Como investigadores também não sabem ao certo como algoritmos funcionam e como influenciam os resultados, é também regular não saberem corretamente os descrever num artigo. Outro problema são as bases de dados usadas. O estudo original pode ter usado uma base de dados diferente da usada na replicação, e isso influencia os resultados (pois as bases de dados são usadas para treinar os algoritmos, assim como gerar os resultados finais). Detalhes como versões dos programas usados ou das placas gráficas e processadores são omitidos, sendo também necessários para uma boa replicação. E por fim, se não se sabe como o algoritmo toma as decisões que toma para chegar a um certo resultado, como pode um artigo ser publicado sobre isso? Que ciência é esta que ninguém sabe explicar?
O problema é de tal maneira preocupante que cientistas “pescam” por resultados nos seus dados, em vez de os tentarem criar. Ou seja, eles olham para os resultados que obtêm e procuram um padrão com uma significância estatística alta o suficiente para justificar publicar algo. Uma vez descoberto o padrão, trabalha-se ao contrário, desenvolvendo uma hipótese que justifique a “descoberta”.
Esta crise na reprodutibilidade de estudos é o culminar de toda a desgovernação que caiu sobre as IAs: artigos científicos publicados sobre aquilo que ninguém compreende ou consegue replicar.
Por estudos científicos e a sua respetiva reprodutibilidade serem dos mais importantes pilares da ciência moderna, esta falha é extremamente embaraçosa e a razão para se fazer uma pausa. Estudos estão a ser publicados por investigadores que não compreendem o que fazem, resultados estão a ser obtidos sem explicação e artigos científicos estão a ser escritos sem o devido rigor académico necessário para a sustentabilidade e boa saúde da ciência.
E a piorar esta crise de reprodutibilidade está a recente viragem da ciência da qualidade para a quantidade. Como artigos publicados são vistos como símbolos de estatuto, empresas e governos agora valorizam mais a quantidade de artigos publicados do que a sua qualidade. Isto leva a que, ultimamente, muita da ciência feita e publicada, é de qualidade questionável, pouco inovadora. A ciência agora é feita para satisfazer o ego de alguns e não para melhorar a sociedade. Inteligências artificiais que ninguém sabe como funcionam são apenas o mais recente sintoma deste problema.
A ciência não pode ser usurpada por interesses a curto prazo de pessoas que não valorizam a sua qualidade. A ciência deve ser sempre, acima de tudo, o mais perfeita e robusta possível, constantemente em evolução e em melhoria. A cada dia que passa somos imensamente mais capazes de mudar o mundo e de o melhorar em todas as variáveis possíveis. Mas, inversamente, o que está a acontecer é que muita ciência está agora a ser subvertida e usada para outros interesses.
Bons usos de IAs estão a ser ofuscados pelos maus usos
Mas, para além de tudo que já foi dito acima, as IAs enfrentam ainda mais um problema: elas estão a ser usadas onde não devem.
Considerem o seguinte exemplo: uma coisa é dar ao algoritmo uma voz para transcrever, outra completamente diferente é pedir a esse algoritmo que determine o sentimento e emoção das palavras ditas. E é isso que está a acontecer: algoritmos ainda muito diminutos, pequenos e fracos estão a ser usados em problemas que ainda não conseguem resolver. Como é de esperar, falham regularmente nessas situações. E, consequentemente, as IAs são mal vistas pela população, com desconfiança.
As IAs que temos hoje são boas para resolver problemas mais literais como encontrar a rota mais rápida num mapa ou jogar jogos com regras e caminhos pré-estabelecidos. Para problemas mais subjetivos, de alto nível e de interpretação, elas falham redondamente pois esses problemas são muitíssimos mais vastos nos possíveis resultados.
Um particularmente mau exemplo de como IAs estão a ser usadas erradamente vem do Facebook: detetar discurso de ódio.
Tendo em conta a tendência que se tem observado, as redes sociais são cada vez mais polarizadoras, regularmente gerando discursos de ódio. Particularmente preocupante são as publicações e páginas criadas deliberadamente para atacar pessoas, grupos ou ideologias com recurso a ódio e incitação à violência. No caso de Myanmar, inúmeros assassínios têm sido cometidos com a ajuda do Facebook.
Tendo em conta que uma das raízes deste problema é a maneira como o Facebook monetiza o seu serviço, com algoritmos que nos mostram conteúdos extremistas e polarizadores para nos reter no serviço, seria de esperar que, para resolver o problema, esses algoritmos fossem corrigidos ou mesmo eliminados. Isso levaria a um menor uso da plataforma, sim, mas também a uma melhor saúde para a sociedade em geral, reduzindo significativamente o conteúdo polarizador que vemos. Resolvia-se o problema pela raiz.
Mas como o Facebook responde aos investidores e não à sociedade, em vez de comprometer os seus lucros, vai antes aplicar um remendo que, antes de ser aplicado, já se sabe que vai falhar: uma inteligência artificial que deteta discurso de ódio.
Nesta solução proposta, o Facebook vai manter os seus algoritmos maximizadores de lucros, mas vai implementar outros em paralelo que, supostamente, vão detetar páginas, anúncios, publicações ou comentários odiosos e violentos e os remover. Só que, como temos vindo a observar, a tecnologia de hoje não tem capacidade para resolver este problema. Temos algoritmos que descrevem o que vêm numa imagem ou transcrevem um diálogo, mas não temos algoritmos que compreendem mensagens ou emoções. As IAs que existem hoje simplesmente não têm a capacidade para isso. Esses algoritmos ainda não existem e não vão existir durante alguns anos, ou talvez décadas.
Esta tentativa por parte do setor privado em forçar IAs a fazerem o que não devem está a criar uma enorme instabilidade no setor. Não se pode correr antes de andar.
Tendo em conta que muitas IAs estão a ser usadas neste contexto, de compreensão de alto nível de questões sociais, elas naturalmente falham. Não só, mas muitas vezes o próprio problema não é corretamente interpretado, pelo que a sua solução também será igualmente incorreta. Mas mesmo assim, empresas continuam a forçar estas “soluções”, com algoritmos que são injetados com esteroides e aumentados em complexidade, com a esperança de talvez melhorar a situação. No entanto, este forçar apenas agrava ainda mais os problemas já existentes das IAs sem melhorar nada. Piora tudo, melhora nada.
Mas a maior ironia em todo este assunto é que a ciência atual não sabe como funciona o cérebro humano. Não se sabe como ele processa informação ou como ele toma decisões. Nós temos os nossos conceitos de como pensamos em alto nível, mas isso não é o mesmo que saber como os neurónios trabalham. O cérebro tem o nome de massa cinzenta por alguma razão: é ainda uma enorme incógnita. Torna-se, portanto, irónico que cegos orgulhosos investigadores de IAs tentem criar redes neuronais e algoritmos inteligentes quando nós não sabemos como os nossos neurónios trabalham ou o que faz de nós inteligentes.
Aliás, os maiores avanços científicos nas IAs surgiram quando investigadores deixaram de tentar copiar o cérebro humano e passaram a usar mais matemática. As IAs que temos hoje são algoritmos muito capazes, sem dúvida. Mas são também muito limitados naquilo que conseguem resolver. E essas limitações têm que ser respeitadas. As IAs que temos devem ser usadas apenas em problemas mais literais, mais fáceis de construir em código. Problemas subjetivos e figurativos não são fáceis de traduzir para zeros e uns.
As IAs podem trazer imensa utilidade às pessoas e à sociedade quando usadas corretamente. Corrigir o português num texto é algo produtivo. Mas sugerir respostas ou o que escrever já é uma intrusão abusiva nas nossas vidas, que remove de nós a capacidade de pensar livremente e nos serve frases pré-programadas, destruindo lentamente a criatividade e expressividade humana.
Para fazer o que seres humanos fazem, já temos os milhares de milhões de seres humanos no planeta. Não faz sentido criar uma máquina que faça o que já fazemos, só que pior, mais complicadamente e mais lento. Uma máquina não te deve substituir, ela deve-te ajudar. E pelo aspeto da paisagem tecnológica atual, este pensamento parece não existir em nenhuma empresa. Os maiores e mais berrantes exemplos de IAs que temos visto ultimamente são para nos induzir e sugerir constantemente ações que geram lucros para as empresas mas que nos danificam a sanidade mental.
Quando o Google Maps diz a rota mais rápida para algo, poupa-se tempo para dedicar ao que é mais importante. Boas IAs fazem o que nós lhes mandamos, e saem da frente quando acabam. Mas quando o Google Maps nos vigia, gravando todos os locais que visitamos e nos sugere outros para visitar, chegando ao ponto de assumir como os vamos classificar, já está a entrar na nossa esfera mais íntima e privada: a nossa liberdade de pensamento. A diversidade mundial está a ser lentamente eliminada e condicionada por estes algoritmos. Coletivamente, como sociedade, estamos a perder imenso.
Estados devem intervir rapidamente e com medidas assertivas
As IAs podem ter usos incríveis, mas foram sabotadas. Elas são agora usadas para nos influenciar e servir conteúdo para consumirmos, seja ele bom ou mau. Práticas agressivas são usadas para alimentar essas IAs com capturas de dados dos utilizadores, práticas essas que roçam numa ilegal distopia.
Mas as IAs não significam ofuscação, práticas capitalistas hostis ou padrões escuros e escondidos. Apesar de elas estarem a ser mais usadas em maus contextos, quando bem usadas, podem imensamente melhorar a qualidade de vida de todos envolvidos.
IAs podem ser usadas para melhor compreendermos o nosso genoma, onde genes que não se sabe ao certo o que fazem podem ser melhor investigados. A gigantesca complexidade que é o nosso corpo e o nosso ADN é perfeita para usar com IAs. Se instalarmos nas nossas cidades sensores que permitam monitorizar o seu movimento e ambiente, podemos usar IAs para processar todos esses dados e melhor desenhar as cidades para evitar trânsito, poluição ou desigualdades. Melhores IAs podem ser desenvolvidas que nos permitam encontrar empregos mais adequados ou às nossas vocações ou aos nossos desejos. As quintas do futuro poderão beneficiar destes algoritmos que observam o progresso da vegetação e tomam decisões mais precisas sobre o que regar e como. Doenças podem ser detetadas mais cedo e evitadas. Até videojogos podem beneficiar de IAs que permitam simular adversários mais credíveis e competitivos, em vez de serem bonecos repetitivos e desinteressantes.
Apenas governos é que conseguem corrigir este problema. São eles que recolhem os impostos, são eles que pagam pelas universidades e são eles que gerem o país. Como tal, para evitar que universidades continuem a perder talento, IAs sejam usadas para degradar a qualidade de vida e empresas fujam a impostos, os governos têm que começar a atuar mais determinada e severamente.
IAs devem ser mais reguladas, sendo as empresas responsáveis obrigadas a explicar como elas funcionam e tomam decisões. Só esta lei seria suficiente para abrandar drasticamente a implementação de códigos que ninguém compreende ou sabe explicar. Não só, mas algoritmos que são usados para influenciar opiniões e induzir uso devem ser expostos, para que nós possamos saber como estamos a ser influenciados.
De seguida, empresas que capturam dados dos utilizadores para alimentar as suas IAs devem construir ferramentas que permitam aos utilizadores transferir os seus dados para outros serviços. Para evitar que um pequeno número de empresas capturem todos os dados e fiquem com monopólios anticompetitivos, todos os dados capturados devem ser controláveis, transferíveis e elimináveis pelo utilizador. Desta maneira, empresas deixam de ter jardins fechados incontrolados e intocáveis e passam a ser muito mais facilmente maleáveis. Para o consumidor existe o benefício de poder mais facilmente trocar de serviços sem ter que perder tudo. Para as restantes empresas, elas podem mais facilmente crescer e competir com os gigantes, pois podem ter acesso aos dados de qualquer utilizador (mediante consentimento, claro). Similarmente, estes dados podem e devem ser partilhados mais facilmente com universidades para que elas possam desenvolver melhores algoritmos.
Em concordância com a anterior lei, outra deve ser criada que force empresas que geram lucros a partir dos nossos dados, a partilhar esses lucros com os utilizadores. Desta maneira controla-se um bocado a singular busca destas empresas por lucros, descontroladamente a qualquer custo. Esta lei, no entanto, teria que ser calibrada para evitar que novas empresas explorem ainda mais os utilizadores, em troca de mais dinheiro. Para contrariar isso, limites têm que ser impostos nos dados que são capturados.
Impostos muito mais altos têm que ser criados sobre as operações online destas empresas. Através de vários contornos à lei, é regular estas empresas acabarem por pagar muito baixos impostos. Para evitar que o dinheiro fuja do país para as mãos de empresas que não o voltam a investir, estes impostos mais altos seriam usados nas universidades, para aumentar as suas capacidades de investigação, para que melhor possam reter talento.
Não, as universidades não iriam oferecer salários tão altos quanto o privado, mas através de projetos mais valiosos e importantes para a sociedade, talento poderia ser mais facilmente atraído e retido. De igual modo, universidades com estruturas complexas e morosas, onde o trabalho é lento e por vezes negativamente impactado por maus professores com um ego inflacionado, teriam que ser reformuladas para que apenas o ensino e a investigação ocupem a maior parte do tempo.
Outra grande mudança que deve ser feita é em como os governos lidam com a ciência. Numa muito confusa e contraprodutiva medida, equivalente a dar um tiro no próprio pé, governos pelo mundo fora têm vindo a valorizar ciência em quantidade, positiva, publicada em jornais de renome. Isto leva a que se faça má ciência, a curto prazo, com resultados positivos, que ficam bonitos em títulos, mas vazios de conteúdo. Igualmente produtiva e importante é a ciência que desprova algo, é a ciência que erra, pois ela também movimenta a sociedade para a frente.
Para as universidades funcionarem corretamente, onde boa ciência é feita com tempo, com calma, com objetivos nobres de descoberta e inovação para a sociedade e não para vender e gerar lucros para alguns, é necessário que governos parem de forçar a ciência em quantidade. Investigadores devem ter a liberdade de pensamento para corretamente efetuarem o seu trabalho e gerar boa ciência, robusta e valiosa. Estar a forçar quotas nos investigadores, onde eles são forçados a publicar artigos sem conteúdo nenhum, apenas porque sim, é uma medida extremamente estúpida e ignorante.
A ciência não se faz em quantidade, a ciência não se faz com pressa. A ciência merece respeito. A ciência tem que ser respeitada, pois sem ela, não existe progresso. Estamos como sociedade a perder talento e progresso. Estamos todos a perder, enquanto apenas alguns ganham.