O interesse pela Inteligência Artificial (IA) cresceu exponencialmente no último ano, especialmente com o advento do ChatGPT e outros aplicativos de fácil interação com o público, como o Midjourney, Bard, Microsof Bing, etc. Com isso, ganharam espaço também discussões sobre os limites e possibilidades desse tipo de tecnologia. Regulamentar ou não regulamentar? Seremos dominados por essas ferramentas? Quais profissões estarão em risco? Claro que um assunto tão pulsante não poderia ficar de fora da programação da 75ª Reunião Anual da SBPC, que aconteceu semana passada, no campus Centro Politécnico da Universidade Federal do Paraná (UFPR), em Curitiba.
As oportunidades e riscos da IA foram tema da conferência do professor-titular do Instituto de Ciências Matemáticas e Computação da Universidade de São Paulo (ICMC-USP), André Carlos Ponce de Leon Ferreira de Carvalho, na última sexta-feira, 28 de julho. A sessão foi coordenada pela secretária-geral da SBPC, Claudia Linhares Sales.
Pesquisador principal do Centro de Ciências Matemáticas Aplicadas à Indústria (CeMEAI) e vice-presidente da Sociedade Brasileira de Computação (SBC), Carvalho é especialista em aprendizado de máquina, mineração e ciência de dados, e é também autor do livro “Inteligência Artificial: Uma abordagem de Aprendizado de Máquina”, vencedor do prêmio Jabuti de 2012.
“Tecnologia não é boa e nem ruim. Isso depende do uso que o ser humano faz dela”, resumiu. No presente, a IA tem sido desenvolvida para aprender e realizar tarefas específicas, as chamadas “narrow AI”. Porém, essa capacidade de criar sistemas especializados pode abrir caminho, no futuro, para o que tem sido chamada de inteligência artificial geral (AGI, na sigla em inglês) – uma ferramenta que pode aprender e criar como os humanos, a verdadeira inteligência artificial. “A grande pergunta aqui deve ser: para quê a gente precisaria disso?”, questiona o professor da USP.
Carvalho defende que é importante apoiar o desenvolvimento da IA em diferentes áreas do conhecimento, como saúde, educação, políticas públicas, no campo jurídico, etc., mas dentro de um espaço bem regulamentado, informado e com embasamento científico.
“A gravidade, intensidade e o alcance podem não depender de sua origem, do propósito para o qual a ferramenta foi criada. Por isso, é preciso entendermos muito bem como funciona a inteligência artificial”, argumenta. Segundo o especialista, é preciso investir em educação para o uso e desenvolvimento dessas tecnologias. O que não pode, alerta, é corremos o risco de não saber usar e “perder o bonde” de seu inevitável desenvolvimento.
“Usar com cuidado, regular e evitar abusos. Temos que ser criteriosos e, ao mesmo tempo, ter em mente que o propósito da ciência, tecnologia e inovação é melhorar a qualidade de vida das pessoas. E, para isso, novas leis devem ser criadas por legisladores que compreendam as mudanças que estão ocorrendo. Eles precisam ouvir a comunidade científica e tomar decisões baseadas em evidências científicas”, recomendou.
A questão da regulamentação da IA é um debate global. Carvalho citou que, em novembro de 2021, a Conferência Geral da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) aprovou uma “Recomendação sobre a Ética da Inteligência Artificial”, o primeiro instrumento que propõe a definição de normas sobre a IA, em linha com as ODS (Objetivos para o Desenvolvimento Sustentável). O documento foi publicado em português em 2022, com uma proposta de promover esse debate no Brasil.
A publicação propõe princípios, valores e ações políticas, que vão desde o respeito e promoção dos direitos humanos, das liberdades fundamentais e da dignidade humana, a proteger a prosperidade ambiental e ecossistêmica e garantir diversidade e inclusão. A Unesco também diz que o desenvolvimento e aplicação da IA deve ocorrer de forma justa e inclusiva, transparente e respeitando o direito à privacidade e à proteção de dados, com supervisão humana – individual e pública-, com responsabilidade e com prestação de contas, entre outras recomendações.
“Vários países estão avançando nas discussões sobre a regulamentação da IA. Deveria ter um Painel Intergovernamental, como o das Mudanças Climáticas (IPCC), só para discutir, em nível global, a inteligência artificial”, sugeriu.
No que se refere às medidas legais de IA no Brasil, há dois Projetos de Lei (PL) em andamento no Parlamento: o PL 21/2020 e o PL 759/2023. Linhares defendeu uma ação integrada da SBPC com a SBC para examinarem os dois projetos à luz do que foi discutido na conferência, uma vez que há também parte importante da comunidade científica de IA no País que defende uma regulamentação internacional.
Assista à conferência na íntegra neste link.
Daniela Klebis – Jornal da Ciência