Até 2030, estima-se que o treinamento de redes de inteligência artificial deverá consumir mais energia do que a Índia utiliza anualmente; em 2021, a partir da análise das obras existentes e de estilo, a Inteligência Artificial finalizou a X Sinfonia de Beethoven, que ficou inacabada após a morte do compositor; há anos os melhores enxadristas humanos têm perdido partidas sistematicamente para IAs; os avanços delas sobre a área de criação, textos, imagens, vídeos e programação, cria temores sobre o futuro do trabalho e as suas implicações em outras áreas das atividades humanas, inclusive sobre a Educação, sobretudo ao Ensino Superior gratuito.
Essas e outras questões foram debatidas durante a manhã do primeiro dia de atividades do 71º Fórum da ABRUEM, nas duas palestras realizadas no auditório do
BDMG: “Ética e Estética e Inteligência Artificial”, ministrada pelo professor Daniel Pucciarelli, e mediada pela reitora Lavínia Rosa Rodrigues, ambos da Universidade do Estado de Minas Gerais, e “Diálogos entre Extensão, tecnologia, inovação e processos criativos”, que contou com a participação do diretor de Engenharia do Google para a América Latina, Berthier Ribeiro, a gerente Google for Education para o setor público, Larissa Andrade Gomes e mediada pela reitora da Universidade Estadual de Feira de Santana, Amali de Angelis Mussi.
Durante sua palestra, o pesquisador Daniel Pucciarelli conceituou, fundamentou e problematizou a iminência da IA nas atividades humanas, ressaltando as questões éticas e estéticas da questão e os desafios que essas temáticas representam para a implementação de IAs que atinjam o mesmo potencial humano.
Segundo ele, fatores como a senciência, consciência e inteligência emocional são atributos humanos de difícil parametrização e muito complexos para se transpor em algoritmos. Por outro lado, ele aponta que o estabelecimento cada vez mais acelerado das inteligências artificiais convergem para a quebra do paradigma de que a ética e a estética sejam atributos exclusivamente humanos, situação que ele considera “um tapa na cara do excepcionalismo humano”.
O pesquisador também indicou o que chamou de problemas morais de curto prazo: a sustentabilidade do modelo de treinamento de IAs robustas (que, segundo um estudo de 2022, demandaria 1,3 mil Kwh-h, que seria equivalente ao consumo energético de 130 residências norte-americanas, ou que teria o potencial de até 2030 ela consumir a
mesma quantidade de energia que a Índia) em contexto de condições climáticas e cenário delicado de geração energética; os algoritmos falhos, especialmente na área de saúde, que podem sub ou superidentificar padrões e levar, por exemplo, a prescrições médicas equivocadas (levando a própria OMS - Organização Mundial da Saúde - a temer a adoção precipitada da ferramenta na área da saúde), problemas de intimidade e privacidade e a criação de deepfakes.
Pucciarelli sintetizou esses problemas como de “controle social da técnica e da tecnologia”, sendo primordial para o primeiro tópico uma coordenação sociopolítica eficiente e para o segundo um improvável consenso político sobre temas controversos, como trabalho, sustentabilidade, entre outros. Ainda com essas dificuldades, ele acredita na possibilidade de criação de “algoritmos morais”.
O pesquisador indica que o papel das Universidades nesse contexto é serem os espaços de experimentação e inovação interdisciplinar, promovendo estudos sociais da tecnologia e a reflexão crítica permanente sobre os rumos da IA, sobre teorias e práticas de alinhamento de IA e fomento dos mecanismos de aprofundamento das democracias digitais e a valorização da inteligência natural.