Notícias
Uma Inteligência Artificial humana, demasiadamente humana
O imaginário popular é repleto de imagens sobre a dominação da Inteligência Artificial (IA) em um futuro distópico, como revelado na frase acima, na qual o computador HAL se recusa a atender ao astronauta David Bowman em cena de 2001: Uma Odisseia no Espaço, filme de Stanley Kubrick e Arthur C. Clarke lançado em 1968. Não é difícil perceber o receio a este comportamento da máquina, um avanço tecnológico capaz de criar uma Inteligência Artificial autônoma que suplante a inteligência biológica. Mas a questão da ameaça da IA em nossas vidas está além da natureza técnico-científica, tornando-se necessário discutir seus limites na sociedade moderna.
Inteligência que imita funções humanas
A definição prática de Inteligência está em uma fronteira difusa entre ciências exatas, humanas, biológicas e sociais. Associada à capacidade de aprender a partir de alguma experiência anterior, de resolver problemas e de se adaptar a situações novas, inteligência é também um tema ativo de pesquisa, incluindo a possibilidade de existência de múltiplas formas de inteligência. Inteligência Artificial, por sua vez, é um termo frequentemente usado para descrever máquinas ou computadores que imitam funções cognitivas associadas à mente humana, como o ‘aprendizado’ ou a capacidade de ‘resolver problemas’.
Passados mais de meio século das primeiras redes neurais artificiais, o que os cientistas têm de concreto sobre Inteligência Artificial são modelos matemáticos capazes de reproduzir decisões humanas. Jogos de tabuleiro, videogames, veículos dirigidos de forma autônoma, sistemas de vigilância em tempo real são exemplos de algoritmos de IA que, na maioria das vezes, aprendem com base em dados que seres humanos previamente classificaram. Estes algoritmos realizam suas tarefas com alta performance, chegando, em diversas situações, a superar a inteligência humana.
Hoje, a IA é percebida em máquinas diversas, distinguindo entre um gato e um cachorro numa imagem, realizando atividades que envolvam certo grau de experiência de vida e valores, como a avaliação de um texto. Portanto, é natural se colocar a questão: estes algoritmos estão aprendendo de quais humanos?
Uma resposta, que costuma estar na ponta da língua de qualquer pessoa da área, é que chegamos a um critério médio quando mesclamos avaliações usando um conjunto grande de dados de humanos e ensinamos as máquinas por meio deles. No entanto, até alguém com pouco conhecimento no tema é capaz de perceber que não é isso que acontece nos algoritmos de IA atuais.
Máquinas podem ser imparciais?
Programas carregados de vieses (raciais, sociais, de gênero etc.) são uma realidade. Em alguns casos é possível perceber que os vieses não são intencionais, eles simplesmente estão lá porque estão em nós, o que torna as decisões dos algoritmos mais humanas do que gostaríamos.
O medo de máquinas que pensam e poderiam se revoltar contra nós – que aprendemos a nutrir através de filmes, livros e da cultura popular – talvez esteja mal direcionado. O que talvez faça mais sentido é se questionar sobre quem ensinou as máquinas, como ensinou e com qual interesse. Uma vez que as máquinas podem carregar o desejo e o olhar de quem as construiu, organizações ou indivíduos poderiam impor sua visão, inclusive de forma autoritária, através de algoritmos aos quais confiamos decisões cada vez mais importantes. No limite, poderiam até usar esses algoritmos para “convencer” as pessoas a tomarem uma decisão do interesse de quem controla o programa.
É importante distinguir que a tecnologia em si não é efetivamente ameaçadora. Ao escrever este texto, recebemos sugestões de uma máquina que propõe completá-lo, palavra por palavra. Chegamos a imaginar um momento em que a construção do texto pela máquina seja tão substancial que a autoria se torne cada vez mais indistinta no que diz respeito à sua real contribuição. A pergunta a ser feita não é se máquinas vão tomar decisões com frequência e se podemos impedir este desdobramento. Isso seria como reeditar movimentos que tentaram evitar a revolução industrial. As perguntas a serem feitas são: Que máquinas e a quem elas de fato servem? Quais idiossincrasias e comportamentos a sociedade deve admitir nelas?
Os limites éticos do desenvolvimento da IA
Em princípio, os novos conhecimentos científicos e tecnológicos irão sempre aperfeiçoar a técnica, e talvez cheguem a algum critério objetivo se uma IA supera uma inteligência biológica em determinada tarefa. Entretanto, delimitar a geração de conhecimento científico já se mostrou equivocada ao longo da história, e hoje percebemos que aumentar a responsabilidade ética é muito importante. Dadas as condições econômicas e sociais, é ingênuo imaginar que existirá algum tipo de freio no desenvolvimento C&T. Ao opinar e decidir sobre o uso do conhecimento científico, a sociedade se torna também responsável por suas consequências.
O progresso técnico-científico não é efetivamente uma garantia de progresso humano. O debate passa certamente pelo estabelecimento de algum limite, normalmente por meio de regulamentação vinda de uma coletividade, idealmente em uma sociedade livre e democrática. Estamos beirando, cada vez mais, questões que exigem da sociedade intensa reflexão sobre este tema.
Para enfrentarmos os temores do desenvolvimento científico e tecnológico podemos contextualizar suas consequências na sociedade a partir de duas reflexões de cientistas. A primeira, do físico Albert Einstein (1879-1955): “Uma coisa que aprendi ao longo da vida: nossa ciência, quando confrontada com a realidade, é primitiva e infantil, mas é a coisa mais preciosa que temos”, que nos lembra que talvez a resposta à questão levantada aqui ainda exija muita reflexão. A segunda, de Carl Sagan (1934-1996), astrofísico e divulgador científico estadunidense que alertou: “Corremos o risco real de ter construído uma sociedade que depende fundamentalmente de ciência e tecnologia e na qual raramente alguém entende ciência e tecnologia. Isso é claramente uma receita para o desastre”.
John Gray, escritor e filósofo britânico contemporâneo, diz que a ciência permite que os humanos satisfaçam suas necessidades e que certamente há progresso no conhecimento, mas não na ética. A sociedade contemporânea costuma afirmar que o mais novo, mais tecnológico e mais automático é sempre melhor. Será?
* Os autores agradecem a revisão e os comentários feitos por Claudia Vanise de Andrade e Mariana Ferraz, do CBPF.
Grupo de Processamento de Sinais, Imagens & IA do CBPF:
Clécio Roque De Bom
Elisangela Lopes de Faria
Marcelo P. de Albuquerque
Márcio P. de Albuquerque