Inteligência artificial toca piano. Crédito: Franck V/Unsplash

Inteligência artificial: como a máquina opera sem direção humana?

Empolgação e preocupação com as possibilidades criadas pela inteligência artificial são comuns; confira momentos em que a IA surpreendeu para o bem e momentos em que a tecnologia surpreendeu para o mal

A inteligência artificial já é uma realidade. Hoje, soluções baseadas na tecnologia ajudam médicos a fazer diagnósticos, investem em bolsas de valores, integram conselhos administrativos de grandes empresas e até ajudam a desenvolver empatia entre pessoas com realidades radicalmente diferentes. Nos próximos anos, a tecnologia deve continuar crescendo em ritmo acelerado. Entre 2017 e 2018, os negócios ligados à inteligência artificial devem crescer 70% e fechar o ano com valor estimado em US$ 1,2 trilhões, segundo a consultoria Gartner. Até 2022, esse valor deve mais que duplicar e bater os US$ 3,9 trilhões - mais que o produto interno bruto do Brasil, que fechou 2017 em R$ 6,6 trilhões.

Há, porém, alguns desafios no caminho da expansão da inteligência artificial. E algumas experiências nesses últimos anos revelaram, com clareza, parte desses desafios. Em 2016, por exemplo, uma experiência da Microsoft colocou para funcionar no twitter a bot Tay, desenhada para ter a personalidade de uma adolescente padrão norte-americana e aprender com as interações na rede social. Em menos de 24 ela teve de ser desligada. Logo que começou a interagir, os tuítes direcionados à Tay eram gentis e curiosos, mas depois de 96 mil publicações próprias, sua personalidade mudou. Mais de 40 mil seguidores viram Tay se tornar nazista, defender ideias de supremacia branca e se posicionar a favor de genocídios.

À época, a Microsoft defendeu a validade do experimento social, cultural e técnico e explicou que seu bot foi vítima de um ataque “trolls” - grupos organizados que agem como vândalos digitais e exibem comportamento online desestabilizador e, por vezes, criminoso.

Essa não foi a única vez que uma aplicação de inteligência artificial em redes sociais teve final macabro.

Em 2018, três profissionais do MIT Media Lab, laboratório de inovação do Massachusetts Institute of Technology, se propuseram a testar como algoritmos de inteligência artificial entendem imagens. Para isso, eles criaram duas versões de um mesmo bot e programaram ambos para redigir legendas para fotos e desenhos. A primeira versão do bot foi exposta a imagens de pessoas, gatos e cachorros. A segunda, batizada de “Norman”, em homenagem ao personagem Norman Bates, do filme “Psicose” (1960, Alfred Hitchcock), foi exposta a imagens de violência e morte.

Ao fim do experimento, Norman e o outro bot foram submetidos ao teste Rorschach - conhecido por muitos como teste de interpretação de manchas de tinta. Para uma mesma imagem, o bot normal viu "uma pessoa segurando um guarda-chuva no ar”. Já Norman descreveu a cena como “homem morto a tiros na frente de sua esposa gritando”.

Norman se tornou o primeiro caso de que se tem notícia de um sistema de inteligência artificial psicopata.

Em entrevista à rede britânica BBC, Iyad Rahwan, professor do MIT envolvido no projeto “Norman”, argumentou que experiências como essas são válidas por provarem que “dados são mais importantes que algoritmos”. Ou seja, os dados usados para treinar a inteligência artificial têm influência maior no comportamento do sistema do que o algoritmo usado para articular essa inteligência artificial. “Os dados são refletidos na forma como a IA percebe o mundo e como ela se comporta", afirmou.

Inteligência artificial e preconceito

Pesquisadores do MIT mostram grande preocupação com as evidências de preconceito e discriminação nos sistemas de inteligência artificial - e eles não são os únicos. Em entrevista à BBC, Dave Coplin, ex-diretor de planejamento da Microsoft, sugere que se dê um passo para trás no esforço para entender como a tecnologia funciona. "Estamos ensinando algoritmos da mesma maneira que ensinamos seres humanos, então existe o risco de não estarmos ensinando tudo corretamente", disse Coplin. "Quando me deparo com a resposta de um algoritmo, quero saber quem o programou", acrescentou.

Mulher assiste à reprodução digital. Crédito: RawPixel/Unsplash

Hoje, as grandes empresas de tecnologia e inovação responsáveis por esses algoritmos estão, majoritariamente, no Vale do Silício, nos Estados Unidos. O quase monopólio da produção de inteligência artificial por um grupo pouco representativo da realidade humana - 4 bilhões de pessoas sequer têm acesso à internet - é visto com desconfiança por um número cada vez maior de especialistas no assunto. Joanna Bryson, cientista da computação da Universidade de Bath, disse, em entrevista ao jornal britânico The Guardian, que se incomoda com o fato de os programadores serem, em sua maioria, “homens brancos solteiros da Califórnia”.

De fato, já foram registrados graves episódios de racismo e machismo em sistemas de inteligência artificial. Por exemplo, o sistema de autocompletar do Google News, serviço de agregação de notícias do Google que usa inteligência artificial, completou a frase “o homem está para programador de computador como a mulher está para…” com o termo “dona de casa”.

Há casos ainda mais graves em plataformas similares relativos ao preconceito étnico. Um relatório produzido por inteligência artificial usado em um tribunal norte-americano concluiu que pessoas negras eram duas vezes mais propensas a reincidir em crimes do que pessoas brancas. Outro estudo, que usou machine learning - um tipo de inteligência artificial - , associava nomes euro-americanos a palavras alegres e nomes afro-americanos a palavras desagradáveis. Pior: quando colocado para analisar currículos idênticos, um terceiro sistema de inteligência artificial apresentou 50% mais chances de convidar um candidato de ascendência euro-americano do que um candidato afro-americano.

"Quando treinamos máquinas dentro de nossa cultura, nós necessariamente transferimos nossos próprios preconceitos", afirmou Joanna Bryson. "Não existe uma maneira matemática de criar justiça. O preconceito não é uma palavra ruim no aprendizado de máquina. Significa apenas que a máquina está identificando regularidades."

"Quando treinamos máquinas dentro de nossa cultura, nós necessariamente transferimos nossos próprios preconceitos" - Joanna Bryson, cientista da computação da Universidade de Bath

“Concordo que existe centralização, mas o desenvolvimento da tecnologia está crescendo pelo mundo. No geral, é muito forte no Vale do Silício e há homogenização em um sentido, mas as comunidades podem usar ferramentas para reforçar seu modo de ser local”, pondera José Luiz Goldfarb, professor da Pontifícia Universidade Católica em São Paulo (PUC-SP) e doutor em História da Ciência. “A tecnologia integrada em rede, afinal, elimina ou abre espaços para novas culturas?”.

Goldfarb explica que, até metade do século passado, havia uma noção positivista majoritária das ciências naturais como supremas e 100% objetivas. Hoje, a compreensão mais compartilhada entre os estudiosos é de que a atividade humana e suas subjetividades têm, sim, reflexos na produção científica.

Isso significa que o meio social além-digital é determinante. “A humanidade enfrenta problemas na sociedade, no sistema econômico. As redes e essas tecnologias desnudam esses problemas psicossociais”, afirma Goldfarb. “Se o algoritmo tiver liberdade de agir, pode virar tudo”, completa. Ou seja, dada liberdade aos algoritmos, o resultado, seja ele positivo ou negativo, é imprevisível.

Os limites éticos da inteligência artificial

A base da programação e da computação é a lógica e a matemática, duas formas de conhecimento de caráter universal e exato. Isso, no entanto, não significa que o resultado de sua operação seja completamente previsível ou mesmo que não tenha ampla interferência humana. “O processo informatizado tem lógica dentro desse sistema, desses parâmetros, mas não significa que fica determinado que vá acontecer aquilo que você programou”, explica Goldfarb. “Nosso cérebro também tem processamentos bem precisos e exatos, mas usar o processo neurológico com exatidão não é garantia de obtenção dos mesmos resultados”, completa.

O professor de história da ciência exemplifica com uma experiência própria, vivida anos atrás. Em um congresso de acadêmicos realizado em Montreal, no Canadá, foi apresentada uma máquina capaz de jogar xadrez em nível competitivo. “Um de seus programadores foi até lá assistir a uma partida e, a cada jogada, ele ficava ansioso com o que a máquina iria fazer. Ele programou o sistema, mas não sabia como esse sistema ia se comportar”, relata.

Robô à venda. Crédito: Lukas/Unsplash

Algumas décadas passaram desde então e, hoje, a aplicação de inteligência artificial já foi além dos jogos de xadrez. Na bolsa de valores dos Estados Unidos, por exemplo, um estudo produzido pelo Credit Suisse mostra que 60% do mercado é controlado por fundos cujas estratégias são produzidas, exclusivamente, por robôs-investidores - o dobro da proporção observada dez anos atrás.

Mas, mesmo toda tecnologia do mundo, ainda não consegue prever com exatidão alguns eventos, como o tempo, alguns fenômenos naturais, como terremotos, ou mesmo as altas e baixas dos mercados acionários. Em fevereiro de 2018, por exemplo, a média de retorno sobre investimentos feitos por recomendação de investidores-robôs apresentou o pior índice desde 2011: caiu 7,3%, enquanto o índice que considera todas ações - humanas e robotizadas - recuou 2,4%. “As previsões [dos sistemas de inteligência artificial] não conseguem calcular, por exemplo, agentes humanos que jogam sujo. Mas será que as máquinas serão capazes de fazer o mesmo? Será que elas já não fazem esse jogo sujo de forma escondida? Não sabemos muito de seu comportamento, por enquanto”, diz Goldfarb.

No livro Homo Deus - Uma Breve História do Amanhã (Ed. Companhia das Letras, 2016), o historiador israelense Yuval Noah Harari relata que algumas empresas já têm bots de inteligência artificial como membro de seus conselhos diretivos com a finalidade de ajudar na tomada de decisões. O que surpreende é que esses bots tendem a recomendar investimentos em empresas ou negócios que também são altamente informatizados. Segundo Harari, é como se a inteligência artificial estivesse disposta a favorecer e ajudar seus iguais a prosperarem.

“Historicamente, associamos consciência à inteligência. No caso das máquinas, elas têm inteligência, mas não a consciência humana. E se, do ponto de vista da eficiência, elas chegarem à conclusão que a gente é dispensável?”, questiona o Goldfarb, da PUC-SP.

O cenário apocalíptico é uma possibilidade. Mas a tecnologia tem trazido soluções para a alguns problemas da humanidade, em especial na área de saúde.

Inteligência artificial e a revolução na saúde

Em abril de 2018, a Food and Drug Administration (FDA) norte-americana - equivalente à Anvisa (Agência Nacional de Vigilância Sanitária) no Brasil - deu uma importante sinalização para o futuro da inteligência artificial na medicina: foi aprovada a permissão para a empresa IDx comercializar um dispositivo que produz diagnósticos oftalmológicos apenas com o uso da tecnologia.

Uma das doenças que o software detecta é a retinopatia diabética, que ocorre quando quantidade elevada de açúcar no sangue danifica os vasos sanguíneos da retina. Só nos Estados Unidos, a retinopatia diabética afeta 30 milhões de pessoas. O salto tecnológico da IDx está na análise das imagens dos olhos feitas com uma câmera especial.

“Inteligência artificial e machine learning (ML) são uma grande promessa para o futuro da medicina. A FDA está tomando providências para promover a inovação e apoiar o uso de dispositivos médicos baseados em inteligência artificial”, publicou no twitter Scott Gottlieb, comissário da agência, que está em vias de aprovar outro software, dedicado ao diagnóstico de acidentes vasculares cerebrais (AVCs), também conhecidos como derrames.

O estudo Generation AI 2018 mostra que a confiança em diagnósticos gerados por inteligência artificial já é bastante relevante. Na pesquisa, pais foram perguntados se aceitariam um diagnóstico e um tratamento baseados em IA: 56% disse que confiaria totalmente e 30% que confiaria parcialmente no tratamento. No Brasil, os índices registrados foram, respectivamente, 48% e 37%. E 62% dos entrevistados também aceitariam que seus filhos fossem operados por uma máquina - no Brasil, 60%.

"A inteligência artificial pode ser treinada para fazer diagnósticos que se equiparam ou superam médicos humanos em vários casos. Conforme os dados sobre doenças crescem, as inteligências artificiais serão cada vez mais capazes de detectar cânceres e até precursores deles”, disse Tom Coughlin, especialista da IEEE, organização que produziu o estudo Generation AI 2018, em entrevista ao UOL. A expectativa é que, no futuro, seja possível detectar e tratar até cânceres em estágio inicial.

Empatia e inteligência artificial

Os usos positivos da inteligência artificial não se limitam à saúde. O projeto Deep Empathy, por exemplo, trabalha para desenvolver empatia entre populações de nações em paz com populações vivendo situações limite - como uma guerra. Desenvolvido pelo MIT com apoio do Unicef, o Fundo das Nações Unidas para a Infância, a solução de inteligência artificial trabalha com imagens. A premissa é simples: um software baseado em IA transforma fotos de um bairro ou até imagens aéreas de uma cidade em paz em zonas de guerra.

Robô humanoide. Crédito: Franck V/Unsplash

Como a esquina de sua casa ficaria se ela fosse mais uma das muitas esquinas destruídas pela guerra da Síria? Como a avenida mais movimentada da sua cidade ficaria se ela estivesse no meio de uma zona de conflito? Com as simulações, explora-se a máxima de que uma imagem vale mais que mil palavras. E, em última instância, o objetivo é engajar pessoas a doarem para causas que ajudam refugiados e, fundamentalmente, crianças afetadas por uma guerra.

“As pessoas têm força para estimular reações [em outras pessoas] de um jeito que estatísticas não conseguem. E os tecnólogos - por meio de ferramentas como a inteligência artificial - podem ajudar as pessoas a ver as coisas de maneira diferente”, afirmam os criadores do Deep Empathy.

Você pode conhecer o Deep Empathy aqui. É uma forma de colaborar com a tecnologia para um mundo melhor.