[weglot_switcher]

“Regulação dos robôs vai exigir quebra de paradigma ontológico e epistemológico”

Eduardo Magrani defende que, antes de se pensar nas questões éticas em torno dos robôs há que compreender filosoficamente a ética dos animais, “que está atrasada”.
  • Donat Sorokin / TASS
26 Novembro 2020, 07h35

O advogado brasileiro Eduardo Magrani defendeu esta quarta-feira que a regulação jurídica da Inteligência Artificial (IA) deve ter como diretriz uma corrente deontológica, pois em causa está um avanço tecnológico que envolve regulamentos, debate público constante e ética.

Ademais, antes de se pensar nas questões éticas em torno dos robôs há que compreender filosoficamente a ética dos animais, “que está atrasada” apesar de a regulação dos animais, enquanto seres de direitos, ter evoluído. “Antes de levar direitos a robôs inteligentes temos de pensar em seres sencientes, como muitos animais”, disse, na segunda edição da conferência internacional Lisbon, Law and Tech. “A regulação dos robôs vai exigir quebra de paradigma ontológico e epistemológico”, concluiu.

Eduardo Magrani questionou-se sobre se a sociedade está a enquadrar corretamente o debate em torno da IA e explicou que há uma falsa dicotomia a que coloca o ser humano em rivalidade estas tecnologias de vanguarda. “IA é muito mais parecida com uma folha do Excel do que um robô com uma metralhadora”, ironizou.

O sócio fundador da Magrani e Pragmácio Advogados e membro sénior da Fundação Konrad Adenauer defende que haja mais estratégia do que medo, dando como exemplo os Estados Unidos e a China, dois dos 366 países no mundo que têm planos estratégicos nacionais para a IA.

“Não temos uma IA forte ainda. Hoje, temos uma IA fraca, que não se adapta a qualquer situação tão bem quanto um ser humano. Não estamos nesse cenário, mas estamos a todo o vapor”, afirmou o jurista e académico. “Temos de trabalhar a par com a IA. A IA só vai substituir os advogados nas tarefas que são repetitivas ou previsíveis”, acrescentou, no evento organizado pela sociedade Abreu Advogados e do qual o Jornal Económico é media partner.

Vemos a IA como algo que é capaz de alavancar o esforço humano – Manuel Levi

A visão é partilhada pelo CEO da Enlightenment AI, que alertou que sete em dez executivos admitem que os investimentos que fizeram em IA tiveram pouco impacto. Na sua opinião, as organizações falham porque não tem uma estratégia de dados que lhes permita garantir que têm as infraestruturas necessárias e que cumprem os objetivos.

“Muitas vezes as empresas tentam logo passar para a IA sem a parte da observação controlada”, advertiu Manuel Levi, no painel “Global Trends and Regulation in Artificial Intelligence”, moderado por Helder Galvão, consultor da Abreu.

Então, o que que aconteceu para as iniciativas de digitalização falharem? Provavelmente, a empresa não foi capaz de medir os indicadores e não compreendeu a 100% o que é IA.

“Notamos que há empresas que investem tanto na integração de IA que ficam com uma dependência demasiado grande. Não é a coisa mais segura. Por exemplo, aconteceu-nos agora com o Covid-19 com aquelas que utilizaram IA para prever padrões de consumo, mas o coronavírus mudou totalmente o comportamento dos consumidores”, exemplificou o gestor.

Segundo a investigadora brasileira Dora Kaufman, é crítico incorporar princípios éticos, o que não é simples porque é difícil delimitar os territórios (jurisdições) em que a organização opera. Há ainda duas variáveis que limitam esta implementação: o processo relativamente moroso dos sistemas jurídicos baseados em civil law e as limitações da técnica deep learning.

A autora da obra “A inteligência artificial irá suplantar a inteligência humana?” considera que a ética passou a ser uma variável intrínseca, pois os dados pessoais estão no core business das empresas. “A IA que permeia hoje a maior parte das implementações é a técnica de deep learning, que tem limitações intrínsecas, tais como o viés na base de dados e a opacidade (black box). Qualquer ideia de regulamentação tem de levar em conta esses fatores”, concluiu Dora Kaufman.

Copyright © Jornal Económico. Todos os direitos reservados.