Dossiê antecipa as possibilidades e os riscos da inteligência artificial

Nova edição da Revista USP mostra que a aplicação da IA em diversas áreas – como educação, saúde e ambiente – já se tornou realidade, mas ainda é necessário criar mecanismos que garantam o uso responsável da nova tecnologia

A certeza que se pode ter neste momento, diante de impactos diferenciados que a IA provoca na sociedade, é que nossas vidas serão muito diferentes”, escreve Glauco Arbix na apresentação do dossiê Inteligência Artificial na Pesquisa Científica, publicado na nova edição da Revista USP – Foto de fundo gerada por inteligência artificial: vecstock/Freepik

O número 141 da Revista USP – que acaba de ser lançado – traz o dossiê Inteligência Artificial na Pesquisa Científica, organizado pelo professor Glauco Arbix, coordenador da área de Humanidades do Centro de Inteligência Artificial da USP. O dossiê reúne 11 artigos sobre inteligência artificial (IA) e seus avanços, desafios e perspectivas no universo das ciências. Nele, pesquisadores da ciência da computação, medicina, física, engenharia e outras áreas fazem um balanço da presença da IA em seus campos e sugerem os próximos passos para um desenvolvimento socialmente responsável da tecnologia. Publicada pela Superintendência de Comunicação Social (SCS) da USP, a revista está disponível na íntegra, gratuitamente, neste link. Sobre o mesmo tema, a Rádio USP vai estrear, no dia 7 de junho, o programa Além do Algoritmo, que trará conversas com o professor Glauco Arbix. O programa terá apresentação do jornalista Marcello Rollemberg, editor de Cultura do Jornal da USP.

Na nova edição da Revista USP, o professor Virgílio Almeida, do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG), e Elen Nas, pesquisadora da Cátedra Oscar Sala do Instituto de Estudos Avançados (IEA) da USP, abordam os desafios para esse “compromisso social” que precisa ser pensado na relação entre inteligência artificial e pesquisa científica. Segundo os autores, uma IA responsável está atrelada ao desenvolvimento de sistemas algorítmicos que possam trazer benefícios para as pessoas e o meio ambiente. “Abrange os aspectos éticos, legais e técnicos do desenvolvimento e implementação de tecnologias de IA benéficas”, escreve a dupla. “Isso inclui garantir que o sistema de IA não cause danos, não interfira na agência humana, não discrimine e não desperdice recursos.”

Alguns atores já vêm pensando no assunto, conforme discutem os pesquisadores. O Conselho de Políticas Tecnológicas da Association for Computing Machinery (ACM), com sede em Nova York, nos Estados Unidos, divulgou uma Declaração de Princípios para Sistemas Algorítmicos Responsáveis, na qual elenca alguns princípios fundamentais. Dentre eles estão a necessidade de segurança e privacidade, transparência, contestabilidade, auditabilidade e limitação de impactos ambientais. Os países-membros da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), seguindo as determinações do Conselho, assumiram como atributos para a administração responsável da IA o crescimento inclusivo, o desenvolvimento sustentável, o bem-estar, valores que respeitem os direitos humanos e a democracia, a responsabilidade dos agentes e a segurança dos sistemas, dentre outros tópicos.

O passo importante, contudo, apontam Almeida e Elen, é que esses princípios sejam atrelados a estruturas de governança capazes de garantir o uso responsável da inteligência artificial nas ciências. “O avanço da IA nas instituições de ensino superior no Brasil deverá ser acompanhado de um processo de governança, incluindo documentação e ferramentas de apoio aos pesquisadores e professores, de modo a ser eticamente responsável. Operacionalizar diretrizes de IA responsável significa transformar princípios abstratos em ações concretas, processos e práticas que podem ser incorporados aos sistemas nos laboratórios e universidades.”

Outros artigos publicados na nova edição da Revista USP propõem olhares mais localizados sobre o tema – como a questão urbana, tema da contribuição de André Carlos Ponce de Leon Ferreira de Carvalho, diretor do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP em São Carlos e coordenador do Centro de Inteligência Artificial Aplicada em Cidades Inteligentes (Iara), escrita em parceria com Márcia Regina Martins Martinez Corso e Luísa Amélia Paseto, ambas integrantes do Iara. O trio discute as possibilidades que a inteligência artificial traz para as chamadas cidades inteligentes.

O termo se refere às cidades que buscam o desenvolvimento urbano sustentável com o auxílio dos avanços digitais, realizando ações planejadas, inovadoras e conectadas em rede e utilizando a tecnologia para resolver problemas e oferecer serviços de maneira mais eficiente. “A inteligência artificial é uma dessas tecnologias, capaz de transformar as cidades em lugares mais inteligentes e conectados”, registram os autores.

Selecionada a partir de uma chamada feita em 2021 pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) em conjunto com a Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) e o Comitê Gestor da Internet (CGI.br), a rede Iara vem desenvolvendo projetos de cidades inteligentes pelo País, conforme aponta o artigo. Um deles acontece em Canaã dos Carajás, no Pará, cidade que abriga a maior mina de ferro do planeta. Lá, a rede elaborou ferramentas baseadas em IA para auxiliar a gestão municipal em áreas como educação, saúde, segurança e meio ambiente. Já em Guarapuava, município do Paraná, a rede desenvolveu um projeto na área de saúde, voltado à prevenção e ao diagnóstico precoce de doenças raras e complexas. “É importante observar que uma cidade inteligente quebra paradigmas de um Estado provedor e acentua a participação pública com inclusão social e digital, voltada para a melhoria da qualidade de vida em ambientes urbanos e rurais”, escrevem os autores.

“Porém, o uso da IA em cidades inteligentes e sustentáveis também apresenta riscos, que precisam ser evitados ou mitigados por meio de uma regulação da IA”, alertam. Segundo Carvalho, Márcia e Luísa, dentre esses riscos estão a criação de sistemas enviesados ou preconceituosos, com efeitos práticos de restringir o acesso da população aos serviços ou resultar em monitoramentos de seguranças tendenciosos.

No campo da saúde, várias áreas podem se beneficiar com o desenvolvimento da inteligência artificial, conforme apontam os professores Edson Amaro Júnior, da Faculdade de Medicina (FM) da USP, Helder Nakaya, da Faculdade de Ciências Farmacêuticas (FCF) da USP, e Luiz Vicente Rizzo, diretor de Pesquisa do Hospital Albert Einstein. Para eles, a IA pode ter impacto forte na diminuição do tempo para o desenvolvimento e a validação de medicamentos e procedimentos.

“A IA tem o potencial de acelerar a descoberta de medicamentos, permitindo aos pesquisadores analisar rapidamente conjuntos de dados em grande escala, conceber novas moléculas e prever a eficácia de potenciais candidatos a medicamentos em bibliotecas já existentes, ou ainda indicar quais configurações químicas apresentam o maior potencial de evolução para medicamento”, escrevem os pesquisadores.

Além disso, o desenho de ensaios clínicos e suas análises é outro setor em que preveem muito espaço para a inteligência artificial. A IA já vem sendo usada para mapear grandes massas de dados e identificar padrões, e seu desenvolvimento permitiria, por exemplo, que os dados genéticos de uma pessoa fossem analisados. No futuro, a IA também poderá ajudar os médicos em suas hipóteses de diagnóstico. “Além de dados de resultados de exames médicos, os modelos de aprendizado de máquina também serão treinados com dados de textos de prontuário, de wearables – anéis e relógios que medem diversos parâmetros de saúde – e de tecnologias genômicas.” Os especialistas apontam ainda os possíveis benefícios da IA no setor de cirurgias: equipamentos atuais já vêm utilizando algoritmos para correções de tremores e sistemas de alerta para sangramentos, por exemplo.

Assim como seus pares de outras áreas, contudo, o trio sublinha a importância de diretrizes para que as decisões amparadas pela inteligência artificial tenham transparência e confiabilidade, itens fundamentais para garantir a ética de seu uso. “A questão da responsabilidade é central no debate ético sobre a IA na medicina. A ambiguidade sobre quem carrega a responsabilidade por erros ou danos – sejam eles os desenvolvedores de IA, os profissionais de saúde que a utilizam ou as próprias instituições – exige a criação de regulamentos específicos. Essas regras devem definir limites claros e atribuições de responsabilidade para proteger os pacientes contra prejuízos e violações de privacidade.”

Foto gerada por inteligência artificial: Freepik

Preocupações com os seres humanos e preocupações também com o meio ambiente. As possibilidades da IA no enfrentamento das mudanças climáticas é o tema do artigo de Paulo Artaxo, Luciana Varanda Rizzo e Luiz Augusto Machado, professores do Instituto de Física (IF) da USP. Os autores destacam os usos da inteligência artificial para melhorar os modelos e previsões climáticos, monitorar e gerir recursos naturais, como desmatamentos florestais e uso do solo e mapear problemas em diferentes ecossistemas.

“A IA também é utilizada para avaliar a saúde dos ecossistemas, quantificando riscos associados à dispersão de poluentes, detectando a proliferação de algas em ecossistemas aquáticos, prevendo a toxicidade de novos compostos ao meio ambiente e dando suporte a projetos de restauração ecológica”, escrevem os professores. Na esfera das energias renováveis, por sua vez, a inteligência artificial já atua na melhoria da eficiência e confiabilidade das fontes. Redes inteligentes de distribuição de energia elétrica, por exemplo, alimentadas por algoritmos, podem gerir a distribuição e prever padrões de demanda.

No geral, existe um otimismo com reservas a respeito da IA. Já são evidentes as possibilidades positivas de seu uso em diversas áreas, mas os pesquisadores não se cansam de salientar a necessidade de mecanismos capazes de garantir sua aplicação responsável. Nesse sentido, Renata Wassermann, professora do Instituto de Matemática e Estatística (IME) da USP, discute as questões de diversidade implicadas na inteligência artificial.

A autora destaca a falta de diversidade que acompanha o campo. Em primeiro lugar, nas linhas de pesquisa. Os financiamentos privilegiam a construção de modelos de linguagem cada vez maiores, que precisam de grandes quantidades de recursos financeiros, tecnológicos e humanos. Nesse cenário, apenas as grandes instituições possuem a capacidade de atuar, dominando o mercado. Assim, frisa Renata, países e continentes inteiros ficam de fora do desenvolvimento da IA.

Mais um problema identificado pela pesquisadora está no reforço aos preconceitos que certas bases de dados usadas para treinamento das inteligências artificiais apresentam. Renata cita como exemplos um dispenser de sabão automático que reconhecia apenas as mãos de pessoas brancas e automóveis que não reconhecem pedestres negros. “Não é necessário ter má intenção, basta não se preocupar em como o passado molda o presente”, escreve a professora. “Se tradicionalmente cozinhar era uma ocupação feminina, existem mais imagens de mulheres do que homens e, assim, sistemas passam a reconhecer pessoas na cozinha como mulheres.”

Renata frisa que é preciso pensar a diversidade na IA em três áreas: entre os grupos que criam a IA, entre as fontes de dados usados e entre as pessoas para quem os sistemas são voltados. Esferas correlacionadas, afirma a pesquisadora, já que equipes de desenvolvimento mais diversas podem levar a dados menos enviesados e a sistemas mais adaptados para diferentes usuários.

No caso das mulheres, Renata comenta que o crescimento da IA generativa trouxe uma invasão de deep fakes, conteúdos falsos de fotos ou vídeos, que incluem pornografia ou imagens sexualizadas de mulheres, sejam elas reais ou criadas por inteligência artificial. Mas o problema não está apenas na IA generativa. A professora conta como algoritmos de classificação de imagens utilizados em redes sociais consideram de maneira diferente imagens de homens e de mulheres. Enquanto fotos de homens de torso nu não são censuradas, imagens de mulheres nas quais aparecem pequenas porções de pele já são alvo de bloqueio. “As pessoas têm a tendência a imaginar a tecnologia como sendo imune a preconceitos tipicamente humanos e, portanto, não questionar”, alerta a professora.

Diante de todas essas questões, nas quais os avanços parecem inevitáveis e promissores mas os problemas também se colocam, que futuros podemos esperar para as pesquisas em inteligência artificial? Quem se propõe a pensar o assunto é Anna Helena Reali Costa e Fabio Cozman, professores da Escola Politécnica (EP) da USP.

“Podemos prever, sem chance de errar, um ponto sobre a IA: sua definição continuará a ser discutida infinitamente na academia, na cultura popular, na legislação, na diplomacia internacional”, afirmam os autores no artigo que assinam na nova edição da Revista USP. Além disso, Anna Helena e Cozman indicam que o aprendizado de máquina seguirá crescendo, ao mesmo tempo em que o debate entre inteligência artificial e sociedade tenderá a ganhar bases mais concretas.

Para um futuro próximo, os autores acreditam que haverá um sucesso continuado no aprendizado de máquina estatístico. A qualidade de decisões automáticas em setores como o diagnóstico médico ou a localização de problemas na produção industrial deverá melhorar significativamente em poucos anos. Haverá muita pesquisa voltada para aplicações práticas da IA e a academia, sugerem, deverá buscar cada vez mais a inteligência artificial aplicada à compreensão e à antecipação de fenômenos físicos ou humanos, em áreas variadas. A IA poderá combinar, por exemplo, dados e conhecimentos sobre os oceanos para prever ressacas e alertar as populações litorâneas. Ou combinar dados do SUS para buscar as melhores estratégias para campanhas de vacinação.

Paralelamente, Anna Helena e Cozman esperam que empresas em diversos setores passem a se esforçar para avaliar e certificar suas tecnologias de IA como socialmente adequadas. “Processos de certificação variados serão tentados: autorregulação, órgãos certificadores, órgãos centrais etc. A regulação via poder público não será o único caminho no futuro”, escrevem os professores.

Além disso, a dupla acredita que os países que proibirem a inteligência artificial ficarão econômica e socialmente desfavorecidos em relação àqueles mais receptivos à nova tecnologia. O advento da IA será acompanhado pelo aumento nas disparidades entre as nações não apenas nos aspectos de infraestrutura computacional, mas também em áreas do social, como educação, trabalho e renda.

Capa da nova edição da Revista USP – Foto: Reprodução

Previsões de incertezas, com a certeza da mudança. O que remete às palavras do professor Glauco Arbix, na apresentação ao dossiê: “A certeza que se pode ter neste momento, diante de impactos diferenciados que a IA provoca na sociedade, é que nossas vidas serão muito diferentes. Em alguns domínios, como na ciência, a reviravolta deverá ser grande e duradoura, o que levará pesquisadores a abordar a IA com a prudência apropriada aos tempos de hoje. É o que está registrado neste dossiê: um tratamento tão atual quanto responsável da IA, temperado pela recomendação sensata do físico Mario Krenn, do Max Planck Institute: ‘Aproximem-se da IA como de uma musa, uma fonte de inspiração e de ideias’”.

Completam a nova edição da Revista USP os textos “Sociedade da mensagem para reconfigurar a (des)informação”, de Magaly Prado, e “Temidas, rebeldes, poderosas – Milênios antes do #metoo, elas davam as cartas”, de Marília Fiorillo. Na seção livros, Daniel Afonso da Silva faz a resenha de Desenvolvimento Econômico Local: Ruralidade e o Progresso dos Municípios Brasileiros, de Adriano Renzi e Carlos Alberto Piacenti.

Revista USP, número 141, publicação da Superintendência de Comunicação Social (SCS) da USP, 189 páginas. A revista está disponível gratuitamente neste link.

Texto: Luiz Prado
Arte: Diego Facundini – Estagiário sob supervisão de Moisés Dorado

Por Jornal da USP

VEJA TAMBÉM ...