Por Carlos Henrique Cruz Salgado, desenvolvedor de Machine Learning do Inatel; e
Luiz Eduardo Hupalo, Engenheiro Eletricista e Mestre em Engenharia Elétrica pela UFSC, com atuação na área de comunicações móveis.
A partir de 2020, o termo Inteligência Artificial (IA) se espalhou muito. Isso aconteceu devido à popularidade do ChatGPT. No entanto, o ChatGPT é apenas uma pequena parte do mundo da IA. Na verdade, engana-se quem acredita que IA são apenas ferramentas de chats ou de geração de imagens, denominados de IA Generativa.
A IA existe há muito tempo e passou por diversas eras e fases, onde subáreas e diferentes formas de aplicação foram desenvolvidas. No Machine Learning, por exemplo, a IA trata-se de matemática oculta e uma enorme quantidade de dados que podem ser utilizados em conjunto para resolver problemas dos mais variados tipos.
Modelos de IA podem ser usados na saúde, para auxiliar médicos em exames de imagem e dar suporte em diagnósticos; na área financeira, ajudando economistas a decidir se clientes devem ou não ter crédito concedido; podem apoiar engenheiros de manutenção industrial, dando suporte na decisão se equipamentos apresentam, ou não, risco de funcionamento.
Entretanto, as soluções baseadas em IA trazem desafios importantes em termos de responsabilidade e ética. É importante garantir que os sistemas de IA sejam transparentes em suas decisões, para que seus usuários possam confiar e entender os resultados.
A problemática do viés discriminatório
A título de exemplo evidente dos problemas gerados a partir da popularização de modelos de IA Generativa, é possível citar a reprodução de preconceitos nas respostas fornecidas. Esta situação ocorre quando algoritmos aprendem e reproduzem preconceitos existentes na sociedade. Ele surge devido a diversos fatores, como a coleta de dados tendenciosos ou a formulação inadequada de problemas.
Seu impacto pode reforçar estereótipos negativos e aumentar a desigualdade. Alguns grupos podem ser mal representados ou não representados de forma justa, o que causa prejuízos profissionais.
Entretanto, existem algumas estratégias em desenvolvimento para reduzir seu impacto, como:
- Curadoria de dados: garantir a seleção de dados para treinar os modelos de IA de forma cuidadosa, permitindo o aprendizado a respeito de diversidade de perspectivas. Assim é possível dar um passo importante para mitigar o viés;
- Auditoria de modelos: realizar auditorias regulares dos sistemas de IA para detectar e corrigir tendências discriminatórias contribuir para a certificação de que os modelos sejam mais justos;
- Treinamento ético: as equipes que desenvolvem e treinam esses modelos precisam ser capacitadas sobre ética e inclinação tendenciosa, para que possam identificar possíveis fontes de desigualdade.
O uso responsável da IA generativa exige um esforço conjunto entre empresas, desenvolvedores e reguladores. A criação de diretrizes e regulamentações podem garantir que estes sistemas sejam utilizados de maneira ética e equitativa, promovendo a inclusão, evitando assim a perpetuação de preconceitos.
Responsabilidade no desenvolvimento de soluções de IA
Antes de discorrer sobre o uso responsável das soluções de IA, é importante abordar o ponto de vista do desenvolvimento destes modelos – afinal, é por meio desse processo que muitos problemas podem ser introduzidos, como a presença de viés discriminatório. Um profissional desenvolvedor de soluções de IA deve ser capacitado para construir soluções capazes de reconhecerem padrões ou comportamentos em dados conhecidos e generalizá-los para dados desconhecidos.
Aqui, cabe uma simples introdução de conceito: modelos de IA podem aprender de forma supervisionada ou não-supervisionada. Na primeira, o desenvolvedor precisa definir conjuntos de treinamento que representem o fenômeno a ser aprendido; na segunda, o modelo aprende por meio de interações com o ambiente.
A negligência no preparo, processamento e análise do conjunto de treinamento em um aprendizado supervisionado pode levar a resultados catastróficos, como por exemplo as saídas incorretas, a falta de capacidade de generalização, e introdução de viés.
Imagine que um médico possui um sistema baseado em IA que recebe uma imagem de um raio-x do tórax de um paciente, e diga com uma porcentagem de 0 a 100% a probabilidade deste paciente estar com doença respiratória grave. É preciso garantir que os dados são estatisticamente representativos o suficiente para a tarefa que se deseja executar.
Iniciativas responsáveis podem incluir, neste exemplo: a consideração de falsos positivos. O modelo deve aprender a diferenciar contextos. Nem sempre uma mancha ou forma diferente no raio-x indica uma doença.
É importante ter a participação de diferentes profissionais médicos no processo de anotação das imagens. Isso ajuda a aproveitar diferentes pontos de vista e opiniões médicas. Assim, é possível evitar o viés na análise dos raio-x. Também é preciso seguir as leis de proteção de dados, como a LGPD no Brasil. Essa lei exige, entre outros tópicos, a anonimização dos dados usados nos treinamentos.
Responsabilidade no uso de soluções de IA
Sob o ponto de vista do usuário de IA, principalmente de modelos generativos, a educação e conscientização são a principais fontes contra aqueles que usam as ferramentas para disseminar notícias falsas, ou fake news, ou causar mal a terceiros.
A era digital trouxe consigo o poder do acesso à informação de forma rápida, descentralizada e em grandes quantidades, aumentando a necessidade da discussão sobre a dificuldade de filtrar e verificar a veracidade das notícias que consumimos diariamente.
Fake news frequentemente ganham popularidade por meio de algoritmos de recomendação, que priorizam conteúdos sensacionalistas e polêmicos, para ganhar likes e visualizações com objetivos de monetização. Além disso, perfis falsos são usados para disseminar desinformação em larga escala, e a falta de regulamentação contribui ainda mais para o problema.
Recentemente, um estudo realizado pela Universidade de Stanford investigou a eficácia da propaganda gerada por IA. O estudo revelou que a propaganda criada por modelos de linguagem, como o GPT-3, pode ser quase tão persuasiva quanto a propaganda feita por humanos.
Quando humanos participaram do processo de edição e curadoria, o impacto da propaganda gerada por IA foi ainda maior. Os resultados sugerem que a propaganda gerada por IA é não apenas real, mas também efetiva na moldagem de opiniões.
A pesquisa também destaca que o impacto da propaganda gerada por IA pode ser subestimado, dado que a tecnologia está em constante evolução. Modelos mais recentes, como o GPT-4, e técnicas de manipulação de mídia como deepfakes, que criam conteúdos audiovisuais altamente realistas, estimulam ainda mais a distinção entre o verdadeiro e o falso. A capacidade da IA de criar e disseminar propaganda de forma eficiente e em grande escala representa uma ameaça crescente à integridade das informações.
Para enfrentar esses desafios, é essencial adotar medidas de mitigação, como a detecção de contas falsas em redes sociais e a promoção de conscientização da população sobre a identificação dessas notícias falsas. A educação para a identificação e questionamento sobre a veracidade das informações é fundamental para proteger a sociedade da disseminação de desinformação.
A vigilância ativa e a promoção de um pensamento crítico são fatores para garantir que a informação verdadeira prevaleça em um cenário cada vez mais complexo e tecnologicamente avançado.
Estratégias adotadas para o uso responsável da IA
Recentemente, o Inatel vem participando de iniciativas do Governo Federal que buscam definir diretrizes diversas para desenvolvimento e uso de IA, como a Estratégia Brasileira de Inteligência Artificial (EBIA) e o Plano Brasileiro de Inteligência Artificial (PBIA).
Ambas as iniciativas têm eixos de atuação que convergem para o assunto de ética e responsabilidade no desenvolvimento e uso de IA. Trata-se de aspectos de regulação, governança e legislação para discernir a sociedade e as leis nesse novo mundo tecnológico de IA que surgiu nos últimos 4 anos. Tanto a EBIA quanto o PBIA foram instituídos pelo Ministério da Ciência, Tecnologia e Inovação (MCTI) e possuem papéis bem definidos no desenvolvimento da IA no Brasil.
A EBIA é uma iniciativa que cuida da gestão e das diretrizes da IA no país. Ela define aspectos como a criação de pilares éticos e responsáveis para o uso da IA. Também foca na formação de pessoas para o desenvolvimento de IA. Além disso, estimula a criação de soluções de IA em entidades privadas e públicas. Isso inclui centros de pesquisa de universidades e instituições de ciência e tecnologia (ICTs).
Por outro lado, o PBIA é um plano de desenvolvimento nacional que prevê investimentos em projetos que utilizem IA na ordem de R$23 bilhões durante 4 anos. Estes projetos são permeados em diferentes eixos de aplicação, indo desde a melhoria de processos em órgãos públicos, passando por iniciativas de construção de infraestrutura, fomento de pesquisa na área de IA, e chegando em ações de disseminação e educação da população brasileira.
Entende-se que há um longo caminho a ser trilhado para abordar este assunto tão novo e complexo. Ao mesmo tempo que a responsabilidade deve ser exigida e cobrada, também a liberdade de expressão deve ser mantida acima de qualquer outro preceito; entidades fiscalizadoras devem rumar ao sentido contrário ao da centralização, principalmente se feitas pelo governo. Para isso, está sendo formulado o Marco Regulatório sobre o uso de IA no Brasil por meio do Projeto de Lei n° 2338, de 2023.
Este documento define agentes centralizados de regulação e fiscalização, dispõe sobre os direitos dos usuários. Assim, mesmo de forma inicial, o Brasil segue na mesma direção das grandes nações no que diz respeito à definição clara de todos os aspectos relacionados ao desenvolvimento e uso de IA na sociedade.
Somente assim haverá avanços significativos com desenvolvimentos de soluções mais impressionantes e capazes de realizar tarefas complexas, e ao mesmo tempo o máximo benefício da sociedade para a sua utilização.