O novo O que isso representa um risco para a humanidade? Sim. Mas também há algo de bom na inteligência artificial: “Permitir-nos-á encontrar novas soluções para resolver os problemas do mundo”

Os sistemas estão a tornar-se cada vez mais inteligentes, mas como dependem da iniciativa humana ou o risco é controlado, afirmam os especialistas ouvidos pela CNN Portugal: “O desenvolvimento é inevitável”

A evolução da inteligência artificial (IA) traz muitas conquistas, mas a humanidade não está à beira do precipício, muito menos para si mesma – esta é a convicção de dois especialistas ouvidos pela CNN Portugal para tomarem conhecimento do projeto Q* (pronuncia-se Q – Star) , desenvolvido pela OpenAI e que, segundo algumas fontes, pode constituir um grande avanço na chamada inteligência artificial geral.

“Agora a humanidade está no limite por vários motivos, mas neste momento estamos mais preocupados com uma guerra mundial e com o evento global, que é uma hipótese de a inteligência artificial ter em conta o mundo”, explica o especialista em robótica Luís. Paulo Reis, professor do Departamento de Engenharia Informática da Faculdade de Engenharia da Universidade do Porto.

A inteligência artificial geral é a capacidade de criar “sistemas singularmente flexíveis e maleáveis, capazes de resolver problemas tão diversos e complexos como a inteligência humana”, explica Arlindo Oliveira, professor do Instituto Superior Técnico, acrescentando sem hesitar: “Nós”

Segundo as informações vazadas, graças ao acesso a uma grande quantidade de recursos computacionais, Q* conseguiu resolver alguns problemas matemáticos. Embora estes termos sejam resoluções ao nível do ensino primário, os investigadores estão muito optimistas quanto ao sucesso futuro do projecto. Agora, a IA generativa é capaz de escrever e traduzir textos usando modelos probabilísticos. Portanto, a capacidade de dominar a matemática, área em que só existe uma resposta certa na maioria dos casos, implica que o sistema artificial terá capacidades de raciocínio mais semelhantes às do cérebro humano e serão as mesmas que terão sido obtidas. pelo Q*. projeto.

Arlindo Oliveira, que também é investigador do INESC, Instituto de Engenharia de Sistemas e Informática, considera que muitas destas notícias são exageradas e subestimadas porque, embora só agora, esta tecnologia está a ser desenvolvida desde 2017. “Estes sistemas” Isto a linguagem existe há anos. O GPT3 foi lançado em 2020 e nada aconteceu e de repente este ano se tornou viral”, diz ele. “A maior parte dessas notícias refere-se a desenvolvimentos muito menores do que parece. Tal como acontece com o Q*, há muitas outras propostas destas que estão prestes a ser desenvolvidas, mas ainda estamos muito longe da inteligência artificial geral”, defende.

Luís Paulo Reis, que é também professor e diretor do LIACC – Laboratório de Inteligência Artificial e Ciências de Computadores e presidente da Associação Portuguesa de Inteligência Artificial, também não foi informado desta notícia relativa ao Q*: “ Sabíamos que o OpenAI era um teste. criar um sistema com alguma capacidade de raciocínio matemático e resolução de problemas complexos. E, obviamente, você fará algo que em determinado momento pareceu complicado. Aparentemente, este Q* tem a capacidade de resolver problemas lógicos e utilizá-los em “aplicações do mundo real. Ou seja, parece estar na fronteira entre a inteligência artificial geral”.

Mas este especialista prefere destacar os enormes avanços que a inteligência artificial geral pode trazer aos humanos. “A ideia de felicidade contínua, de um sistema aprendendo em tempo real, com interações e experiências (bem fora do que o ChatGPT faz) é um avanço impressionante”, afirma. “Além disso, pode processar grandes volumes de dados. Tudo isto permite uma enorme versatilidade. Este sistema pode ser utilizado na área da saúde, finanças, artes criativas… Tem enormes vantagens. Permite-nos responder rapidamente a problemas complexos .Isso “É muito interessante: fazer análises de marketing, planos de negócios, modelar o clima, criar novos medicamentos para a saúde, tudo o que a gente imagina. Isto nos permitirá encontrar novas soluções para resolver os problemas do mundo.”

“O desenvolvimento da IA ​​para inteligência artificial geral é inevitável. E também é inevitável que estes sistemas sejam cada vez mais roubados”, afirma Luís Paulo Reis. “Daqui a alguns anos não poderemos mais fazer muitas coisas, por exemplo, cuidar dos nossos filhos e dos nossos filhos, e isso será necessário devido ao desenvolvimento da população”. Não sei o que vai acontecer, mas quando vai acontecer. “Da mesma forma que o telefone substitui uma série de outros instrumentos que usamos (cartas, ou telefone, máquina de calcular ou calendário, câmera ou gravador, etc.), esses produtos de IA substituirão seus instrumentos que temos esquisitos e nós terá uma nova maneira de fazer as coisas.

Este pesquisador está otimista. Mas admite que este desenvolvimento “pode ​​ser potencialmente perigoso, como todos os desenvolvimentos na IA podem ser perigosos. Tal como a tecnologia nuclear também pode ser perigosa. Depende dos dois usos que temos para ela”, diz ele.

“O grande risco aqui é que os sistemas possam escapar ao nosso controlo, e é isso que chamamos de singularidade tecnológica, quando temos uma IA que se cria. É isso que precisamos de evitar”, explica Luís Paulo Reis. O termo “singularidade tecnológica” define um momento, um futuro mais ou menos próximo, em que as máquinas e os sistemas inteligentes podem tornar-se tão avançados que ultrapassam a compreensão e o controlo humanos e ganham autonomia, ou que conduzem a alterações profundas na sua própria civilização. humano.

Arlindo Oliveira concorda. “O sistema faz muitas coisas, mas não faz por iniciativa humana, apenas por humanos dando a indicação. E é isso que está por trás do método. Vai acontecer por motivação própria, vai se tornar perigoso”, alerta. .

Em qualquer caso, a solução não pode ser tentar parar a investigação. “É impossível”, ele admite. “Se não houver OpenAI, outra empresa fará”, afirma Arlindo Oliveira. Luís Paulo Reis vai ainda mais longe: “Devemos ser as grandes empresas e os grandes laboratórios a investigar a IA, porque a China, por exemplo, não vai deixar de o fazer. » “O OpenIA tem muitas preocupações éticas, não faz sentido garantir que os processos de tomada de decisão dos sistemas sejam baseados em valores humanos, que não será apenas um produto tecnológico. Pelo menos, em teoria, será um erro.”, especifica Luís Paulo Reis.

Filomena Varela

"Desbravador do bacon. Geek da cultura pop. Ninja do álcool em geral. Defensor certificado da web."

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *