Filósofo diz que, apesar da IA, as máquinas não estão próximas de assumir o controle

Autor do livro “Ética na Inteligência Artificial (Ubu, 192 páginas, tradução de Clarisse de Souza, Edgar Lyra, Matheus Ferreira e Waldyr Delgado), o filósofo belga Mark Coeckelbergh concedeu entrevista à repórter Clara Balbi, da “Folha de S. Paulo” (sexta-feira, 29). Recorto apenas um trecho, mas, dada sua relevância, vale uma leitura completa do material.

A repórter da “Folha” pergunta: Um dos principais argumentos do livro é que focar demais os perigos de uma IA ‘superinteligente’ nos distrai dos perigos das demais IAs. Explicaria essa ideia?”

 Coeckelbergh responde: “Alguns, não só CEOs de big techs como filósofos, têm alertado sobre os riscos existenciais [da IA]. No livro, argumento que isso nos distrai dos problemas reais porque é uma projeção sobre um futuro distante, e sou muito cético quanto à nossa capacidade de prever esse futuro distante”.

Talvez o pensador tenha razão, mas e se não tiver — dado o avanço veloz das mudanças tecnológicas? Por certo, não é possível dizer o que se terá adiante, em termos de avanço tecnológico (o céu é o limite). Então, não se pode também afirmar que aquilo de que “discordamos” não poderá acontecer — e mais cedo do que se imagina. Mas ele tem razão quando sugere que é preciso tratar do que é imediato, do que já se está vivendo.

O filósofo diz que “o que é útil saber são as limitações de tecnologia como o ChatGPT, de modo que os usuários consigam entender que ele não é uma ‘máquina da verdade’. Se as big techs optam por abrir essas tecnologias para uso geral, elas também deveriam apontar suas limitações. E essas empresas até falam dos problemas de IA — mas do que aconteceria se ela dominasse o mundo. Para mim, essa não é a principal questão”.

Depois de apontar o que a IA ainda não é, Coeckelbergh faz uma ressalva: “Também é verdade que estamos vendo com cada vez mais frequência IAs sendo usadas para fins militares, e há um risco nisso. Mas não é o ChatGPT que está fazendo isso”. Sim, não é. Até porque IA é muito mais do que o ChatGPT e congêneres. Mas a tecnologia que gerou o ChatGPT é a mesma, a rigor, que opera a IA para fins militares.

Coeckelbergh pondera que é crucial postular que os humanos devem ter o controle da IA. “Um dos motivos é a questão da responsabilidade, da prestação de contas: temos que conseguir responder a quem é afetado pela IA.”

O filósofo participou do grupo de especialistas que elaborou o marco regulatório de inteligência artificial recém-aprovado pelo Parlamento Europeu. Ao contrário do Brasil — e mesmo dos Estados Unidos —, a Europa está muito mais avançada a respeito de certo controle do uso da inteligência artificial. Nós, a rigor, ainda estamos na idade da pedra… só resta dúvida se “lascada” ou “polida”.

O post Filósofo diz que, apesar da IA, as máquinas não estão próximas de assumir o controle apareceu primeiro em Jornal Opção.

Adicionar aos favoritos o Link permanente.