Notsquare

Perigos da Inteligência Artificial


Nas últimas décadas, temos assistido a avanços incríveis na área da informática, mas nenhum certamente mais promissor do que a Inteligência Artificial. Ainda estamos a vários anos de vermos andróides a andar pelas nossas ruas, mas, se prestarmos atenção, já somos capazes de encontrar máquinas inteligentes, como carros capazes de conduzir sozinhos, espalhadas pelo nosso mundo. Em teoria, estes sistemas parecem perfeitos! Usando algoritmos, conseguimos automatizar inúmeros aspetos da nossa vida que, quando usados de forma correta, podem até vir a salvar vidas! Contudo, esta situação levanta-nos uma grande questão, uma questão que, para muitos, pode ter uma resposta óbvia, mas que é bem mais complexa do que parece: será que podemos confiar num algoritmo?

Bem, a grande maioria de nós já confia em algoritmos no seu dia-a-dia. Sempre que fazemos uma pesquisa online ou sempre que usamos o nosso GPS, estamos a assumir que os nossos dispositivos nos vão dar as melhores respostas ou indicações. Infelizmente, isso nem sempre é o caso. Quem se lembra do escândalo em 2016 com o Facebook e com a Cambridge Analytica sabe do que estou a falar.

Um exemplo mais concreto chega-nos da antiga União Soviética, em 1983, quando o sistema de satélites soviético detetou mísseis no ar a caminho do país vindos dos Estados Unidos. O comandante responsável pelos satélites estava pronto a soar o alarme, um ato que iria certamente dar origem a uma guerra entre potências mundiais, quando se apercebeu que os satélites apenas detetaram cinco mísseis. Achando este valor muito baixo, decidiu não soar o alarme e assumir que os satélites tinham detetado algum outro objeto. Felizmente, tinha razão, mas, se tivesse confiado no algoritmo dos satélites, quem sabe como é que o mundo estaria hoje.

Isto significa que afinal não podemos confiar em algoritmos? Bem, a resposta não é assim tão clara. Dando um exemplo oposto, desta vez do Reino Unido, em 2015, temos uma montanha-russa com uma avaria e dois engenheiros que foram chamados para a reparar. Depois de efetuarem as reparações, enviaram um carro vazio para testar se as reparações tinham sido bem sucedidas. O que eles não sabiam é que os gerentes do parque tinham adicionado um carro extra à montanha-russa, ou seja, quando viram a quantidade de carros parados, assumiram que o que enviaram já teria regressado, mas tinha ficado preso a meio do percurso. Sendo assim, abriram a montanha-russa ao público. Mal o primeiro carro com pessoas partiu, o sistema de segurança da montanha-russa entrou em ação e parou o carro com passageiros. Os engenheiros, confiantes que tinham consertado a falha na montanha-russa, deram a ordem ao algoritmo que ignorasse o problema, uma decisão que envolvia que os dois homens premissem dois botões ao mesmo tempo, devido ao seu elevado risco… esta decisão resultou em vários feridos, entre os quais duas raparigas que perderam as pernas.

Vemos assim que, para melhor ou para pior, já confiamos em algoritmos várias vezes no nosso dia a dia e os avanços da Inteligência Artificial fazem com que estes cenários sejam cada vez mais difíceis de escapar.

Veremos agora alguns usos atuais de máquinas inteligentes e os dilemas associados aos mesmos.

No sistema criminal e judicial, já se recorre a alguns sistemas inteligentes, mais especificamente para a prevenção de crime e para a aplicação de penas.

No primeiro caso, temos algoritmos capazes de determinar com uma certeza muito mais elevada do que qualquer humano as zonas mais propícias a certos crimes. Assim, as forças policiais podem-se focar mais nessas zonas de risco, levando a uma maior eficiência no patrulhamento. Contudo, este tipo de algoritmo pode levar a alguns problemas. O mais evidente prende-se no cálculo das zonas mais perigosas. É possível criar um círculo vicioso, no qual o algoritmo deteta que certas zonas irão ser palco de mais crimes, levando a que a polícia atue mais nessas zonas, reportando, assim, mais crimes que irão ser interpretados pelo algoritmo. Desta forma, pode parecer que não há tanto crime noutras áreas, visto que nessas não são reportadas tantas ofensas, mas isso pode-se dever ao facto de não haver tanta força policial nessas zonas.

No caso judicial, cada vez mais juízes recorrem a algoritmos para decidir que penas é que devem aplicar aos arguidos. Este trabalho já é desempenhado por humanos há séculos, mas, infelizmente, nem sempre da melhor forma. Vários fatores podem levar certos juízes a aplicar penas diferentes a pessoas que tenham cometido o mesmo crime, alguns mais graves, como a cor da sua pele, o seu género ou o seu estatuto sócio-económico, outros mais subtis, como a hora do dia. Pode parecer estranho, mas é verdade! Vários estudos mostram que o facto do veredicto ser alcançado antes ou depois da hora do almoço, por exemplo, pode influenciar a severidade da pena atribuída pelos juízes. Um algoritmo bem desenvolvido não tem estes preconceitos, parecendo ser, deste modo, a escolha superior no momento de atribuir as sentenças. Porém, da mesma forma que não tem preconceitos, um sistema também não tem empatia nem sentimentos. Para um computador, uma pessoa que rouba comida para alimentar a sua família e uma pessoa que rouba comida para a vender a um preço mais elevado noutro sítio cometeram o mesmo crime e merecem a mesma pena, mas nós conseguimos facilmente ver que um destes crimes foi cometido por necessidade e outro por ganância.

No início deste artigo, falei em carros autónomos e mencionei que, em certos locais, já é possível ver carros capazes de conduzir sozinhos. A verdade é que chamar-lhes autónomos, tendo em conta o seu estado atual, é uma grande hipérbole. Os modelos mais recentes da Tesla, por exemplo, apenas conseguem andar em zonas como auto-estradas sem controlo humano, acabando por ser mais um piloto automático do que um carro que se conduz sozinho. A tecnologia de piloto automático já existe em aviões há muito tempo, mas continua a ser necessário ter um piloto e um co-piloto a bordo. Isto porque, por muito bons que estes sistemas sejam, não são perfeitos e não conseguem prever todos os cenários possíveis de encontrar durante um voo. Quando o avião encontra um cenário com o qual não sabe lidar, passa o controlo do avião de volta para o piloto. Nos carros da Tesla e de outras marcas acontece exatamente o mesmo. Contudo, o facto de os carros serem anunciados como carros “autónomos”, principalmente pelos media, leva muita gente a crer que são mesmo carros que não precisam de alguém ao volante, algo que não podia estar mais longe da verdade e que já levou a várias mortes, infelizmente. Enquanto os carros não forem verdadeiramente autónomos, vai ser sempre preciso que esteja uma pessoa atenta ao volante para que, quando o carro não souber o que fazer e devolver o controlo à pessoa, esta consiga tomar controlo da situação e agir de forma correta.

Entretanto deparamo-nos com outro problema em relação aos carros autónomos, algo que os carros atuais com piloto automático já precisam de ter em conta. Se um carro estiver a andar normalmente e, de repente, detetar pessoas no meio da estrada, deve tentar salvar essas pessoas? Acredito que a resposta da maioria seja “sim”, mas e se salvar essas pessoas implicar matar quem está dentro do carro? Podemos tentar estabelecer uma regra em que o carro tenta sempre salvar o maior número de vidas possível, o que, de um ponto de vista hedonista, parece ser a melhor opção, mas isto implica que, em certos casos, o carro possa matar o seu condutor e quem é que compraria um carro sabendo que esse carro poderia matar quem o conduz, se achasse que era a coisa “certa” a fazer? Para este argumento não há respostas certas nem erradas e vai ser um dos maiores obstáculos da Inteligência Artificial, mas é algo em que temos de pensar, visto que pode um dia ser a diferença entre a nossa vida ou morte.

Finalmente, na saúde, começamos a ver cada vez mais algoritmos com base em redes neuronais a serem usados para as mais variadas funções. Uma das mais importantes é na deteção de cancros, onde os algoritmos são capazes de detetar células cancerígenas com uma precisão muito maior do que os médicos humanos num intervalo de tempo bastante inferior. O único problema é que, ao contrário dos médicos humanos, as máquinas detetam alguns falsos positivos, visto que, em muitos casos, não conseguem distinguir um cisto de um tumor, por exemplo, apenas veem algo estranho e assinalam como sendo um problema. Claro que um falso positivo é melhor que um falso negativo, e, nesse aspeto, as máquinas superam os médicos humanos, mas, enquanto que um falso negativo pode levar a um tumor por tratar, um falso positivo pode levar a cirurgias desnecessárias, cirurgias estas com possíveis custos financeiros, físicos e psicológicos. Nenhum destes resultados é desejável.

A solução para este problema, tal como para os outros mencionados acima, passa por não confiar totalmente nas máquinas e, em vez de as tratarmos como substitutos para humanos, tratá-las como uma ajuda. Um humano consegue distinguir um órgão ou grupo de células anormal de um tumor e consegue reduzir a sentença atribuída a alguém por um algoritmo, se achar que o crime possa ter sido justificado. Enquanto a Inteligência Artificial não for completamente inteligente, como nós somos, iremos sempre ter que ter humanos e máquinas a trabalhar juntos, não lhes podemos dar as rédeas. Assim, conseguimos aproveitar as vantagens inerentes das máquinas sem que nos tenhamos de preocupar com os aspetos negativos de colocarmos toda a nossa confiança num monte de metal, porque, no final de contas, o mais importante é o benefício que estes algoritmos trazem para a sociedade.