O LLM de IA português, que se chama Amália, vai ter a sua primeira versão no primeiro trimestre de 2025 e a final será lançada em 2026.

“Desenvolver LLM nas diferentes línguas tem uma importância de incluir não só a linguagem, mas também a cultura do país, a cultura da língua, no raciocínio que os sistemas de IA que vão ser desenvolvidos sobre esse sistema vão proporcionar”, defende.

Para a professora de IA na Universidade Umeå, Suécia, que integra o órgão de Alto Nível das Nações Unidas sobre inteligência artificial, um LLM em português protege a cultura e a especificidade do país.

Por exemplo, “há estudos que dizem que, fazendo uma pergunta ao ChatGPT [da OpenAI] – desenvolvido na América do Norte, principalmente usando dados em inglês”, as respostas estão “mais alinhadas com a resposta que um homem ‘mid-america’ [Centro América] daria”, diz.

Nesse sentido, “os LLM das diferentes línguas proporcionam a possibilidade das respostas destes sistemas que vão ser desenvolvidos sobre os LLM sejam mais alinhados com o contexto cultural e social da língua em que foram treinados”, sintetiza.

Em entrevista à Lusa em 19 de novembro, o presidente executivo (CEO) do Centro para a AI Responsável, Paulo Dimas, sublinhou que os três pontos fundamentais do LLM Amália são a variante linguística – português de Portugal -, a representatividade cultural e a proteção de dados.

O projeto envolve o Centro para a AI Responsável e os centros de investigação, a Nova FCT e o Instituto Superior Técnico.

Este projeto é uma “peça-chave no ecossistema nacional de inteligência artificial” porque “em cima deste LLM vai ser possível criar novas aplicações de inteligência artificial onde a língua portuguesa está preservada, onde nós temos controlo sobre a língua portuguesa”, destacou, na altura, Paulo Dimas.

Democracia em risco: "o que a inteligência artificial acrescenta a esta causalidade atual é a capacidade de aumentar a desinformação"

Virginia Dignum é a oradora principal da conferência DemocracI.A., o II Encontro Sustentável da Plataforma para o Crescimento Sustentável (PCS), que se realiza em Serralves, no Porto, em 25 de novembro.

E, na sua opinião, o desafio para a democracia é "maior do que só a inteligência artificial", porque "estamos a viver uma época geopolítica em que as diferenças e as democracias estão em risco em muitas partes do mundo".

Agora, "o que a inteligência artificial acrescenta a esta causalidade atual é a capacidade de aumentar a desinformação", aponta. Por um lado, "por aumentar a distribuição e o impacto e o acesso a várias fontes de informação, nem todas, como eu digo, são reais, portanto, desinformação", refere.

Por outro, pode, "e está-se a ver já em vários sítios, começar a alterar os processos democráticos através de algoritmos que são usados para fazer, por exemplo, as contagens de voto" e até sondagens.

Os algoritmos "estão cada vez mais a influenciar os processos de eleições democráticos" e estes "são os riscos maiores da IA para a democracia, mas como eu digo, penso que a democracia tem mais problemas do que só aqueles que são causados pela IA".

Até porque notícias falsas e conteúdos falsos "sempre houve", agora o que a IA permite é que estes sejam "muito mais sofisticados de uma maneira que é mais difícil descobrir se são falsos ou não", enfatiza a investigadora. Além de que a "distribuição e o alcance dessas notícias falsas é muito maior do que era antigamente", sublinha.

Por isso, "não é só o facto de haver mais notícias falsas que é o único desafio para a democracia, estamos a ver que os desafios da democracia vêm através de uma indiferença popular em relação aos processos democráticos e aos processos de eleições", reforça.

Ou seja, de um "'hijacking' [sequestro] dos processos democráticos por partidos ou parceiros que não são diretamente democráticos, mas utilizam os processos democráticos para alcançar os seus fins", ilustra.

E todos esses processos "têm pouco a ver com a inteligência artificial, mas são extremamente nefastos para os processos democráticos", remata Virginia Dignum.

Da mesma maneira que a IA pode construir informação falsa, também pode ajudar a explicar os pontos e as diferenças dos partidos nos processos eleitorais, de maneira a que seja mais acessível aos eleitores terem contexto e visão global sobre a situação, segundo a investigadora.

"Nem só se percebe bem o que é que é a IA, mas também não se percebe de certeza quais é que são os problemas sociais que estamos a lidar"

Para Virginia Dignum o "grande desafio" da inteligência artificial (IA) é a "governança global" e adverte que a ideia de que esta é a solução para tudo "é problemática".

"O grande desafio da IA neste momento é a governança global, isso foi parte do trabalho que tenho estado a fazer com as Nações Unidas como membro do grupo de Alto Nível de apoio ao secretário-geral", que é "exatamente propormos e estudarmos como é que se pode governar a IA de uma maneira global", diz.

A inteligência artificial está a ser "desenvolvida e usada de uma maneira muito pouco equilibrada através do mundo", prossegue.

"Principalmente, os sistemas de IA que são os mais visíveis para o consumidor e cidadãos, em geral, está a ser desenvolvida nos Estados Unidos, está a ser usada pelo mundo todo e cada parte do mundo tem as suas regras, tem os seus valores, tem os seus princípios, tem os seus contextos", aponta a investigadora portuguesa.

E "ter uma maneira de governar a IA que seja aceitável e de acordo com os princípios das várias regiões em que vai ser usada é um dos maiores desafios, também tendo em atenção que o desenvolvimento da IA não pode ser só feito por explorar as capacidades tecnológicas possíveis, mas principalmente olhando para o que é que a realidade social e os problemas sociais", considera.

Até porque "não é a tecnologia 'first' [primeiro], mas é o problema social e o conteúdo social que tem que se ter em atenção em primeiro lugar", adverte.

Nesse sentido, "a ideia de que a IA é a solução de todos os nossos problemas, que está a ser propagada por algumas companhias e parceiros sociais, é problemática", alerta.

Isto "porque mostra que nem só se percebe bem o que é que é a IA, mas também não se percebe de certeza quais é que são os problemas sociais que estamos a lidar".