Num diálogo inédito, com a participação do ChatGPT, dois dos mais prestigiados especialistas em Inteligência Artificial (IA), Paulo Novais e Jorge Saraiva, debateram esta quarta-feira, em Braga, o impacto da IA na Sociedade e na Democracia, com críticas e advertências para o entusiasmo, sem deixarem de relevar a “oportunidade” que se abre a Portugal neste domínio.
Os dois oradores, convidados pela Comissão Promotora de Homenagem aos Democratas do distrito de Braga, para abrirem o ciclo de conferências ‘Diálogos com a Democracia’, realizado na Biblioteca Lúcio Craveiro da Silva, nem sempre tiveram de acordo na visão sobre o papel da IA na sociedade, mas ambos concordaram com a necessidade de haver um maior escrutínio e acompanhamento da evolução tecnológica.
O debate iniciou-se com uma provocação lançada aos oradores e ao público: “o que é que um médico e um advogado tem a ver com a Inteligência Artificial?”.
A partir de notícias publicadas nos últimos dias, Paulo Sousa, membro daquela Comissão, evocou o caso da IA que superou as três fases do Medicial Licensing Exam, nos EUA: “mostrou precisão moderada e esteve confortavelmente dentro do intervalo de aprovação”.
No caso do advogado, trata-se da defesa de um caso em tribunal que será defendido já no próximo mês de Fevereiro. Em causa está uma multa por excesso de velocidade. O robot vai dar instruções via telefone ao arguido e será este a argumentar em sua própria defesa, contrariando a ideia dos que pensavam que iriam ser confrontados por um robot com perfil humano em tribunal. Aliás, esta imagem levou Paulo Novais, actual professor catedrático no departamento de informática e investigador no ALGORITMI Centre, na Escola de Engenharia da Universidade do Minho e coordenador do Laboratório associado de Sistemas Inteligentes, a mostrar-se contra a humanização da IA: “o maior erro é humanizar a Inteligência Artificial. Eu não cometerei esse erro”, disse para lembrar de seguida que ela “está em todo o lado: no supermercado, na bimbo, no aspirador. ~
“Já nos estão a substituir”, lembra.
Jorge Saraiva que abriu o diálogo informal com uma referência à história da aprendizagem conduziu o público presente para a pergunta: “estamos preparados para conviver com uma Inteligência superior à nossa?”.
Na opinião deste membro da comissão para a ética em IA na Comissão Europeia, os cidadãos têm de estar preparados para “coabitar com uma inteligência superior á nossa” que, apesar de tudo, “não tem consciência” – uma fronteira que não “deve ser ultrapassada na opinião dos dois oradores que reconheceram tratar-se “de um sistema viciante que pode ter efeitos na Educação”, pelo que, como frisou Jorge Saraiva, é preciso questionar, desenvolver o espírito crítico e combater a ilusão do facilitismo”.
PERIGO? IA RESPONDE
Paulo Novais confessou mesmo que se hoje se dedica ao estudo da IA, isso fica a dever-se a filmes como ‘A Guerra das Estrelas’ que viu dezenas de vezes. Questionado, o ChatGPT sintetizou o que pensa sobre a consciência: “é um conceito complexo e ainda não completamente compreendido (…). No entanto existem algumas teorias e pesquisas em andamento sobre a possibilidade de criar sistemas de IA com algum tipo de consciência, mas ainda é um assunto altamente controverso e não há consenso científico sobre se isso é realista ou desejável”.
Saber se é ou não um perigo, o ChatGPT defendeu-se bem: “enquanto existem inovações em IA que estão cada vez mais avançadas é importante lembrar que essas tecnologias devem ser usadas de forma responsável e ética e a Democracia deve ser sempre preservada”.
Quanto ao seu papel na política, esta pode ser uma mais-valia: pode ser usada para analisar grandes quantidades de dados, no processo de comunicação, nas campanhas eleitorais e no Governo onde “pode ser usada para ajudar a governar, como na automatização de processos burocráticos, análise de dados para monitorar e melhorar a qualidade dos serviços públicos e no planeamento e gestão de cidades inteligentes”.
A resposta automática do ChatGPT não deixou ilusões quanto aos perigos para a Democracia. Apesar de na resposta anterior defender a sua preservação, a resposta, em jeito de conclusão, foi clara: “é importante notar que a IA também pode ser usada de forma maliciosa ou prejudicial na política, como na manipulação de dados e opiniões, ou na disseminação de notícias falsas”.