Promoção imperdível FRETE GRÁTIS nas compras acima de R$150,00

A senciência da inteligência artificial

O The New York Times publicou uma entrevista bastante singular, na newsletter The Interpreter, com Nick Bostrom. Filósofo de Oxford e diretor do Future of Humanity Institute, ele se ocupa de imaginar futuros possíveis, determinar riscos e estabelecer as bases conceituais de como navegá-los.

A senciência da inteligência artificial

The New York Times publicou uma entrevista bastante singular, na newsletter The Interpreter, com Nick Bostrom. Filósofo de Oxford e diretor do Future of Humanity Institute, ele se ocupa de imaginar futuros possíveis, determinar riscos e estabelecer as bases conceituais de como navegá-los. Um de seus interesses mais antigos, nessa linha, é como governaremos um mundo cheio de mentes digitais superinteligentes. Pois é, estamos falando de um mundo repleto de inteligência artificial. Óbvio que hoje vivenciamos um planeta no qual IA é uma realidade, mas o objeto de estudos de Bostrom vai mais adiante…


As leitoras devem estar curiosas sobre o que me chamou a atenção nessa entrevista – e adianto que não foi nada trivial. O bate-papo aborda se as máquinas são ou não sencientes – capacidade dos seres de ter sensações e sentimentos de forma consciente. Isso mesmo! A pergunta é se a inteligência artificial está caminhando para desenvolver essa “habilidade” humana. Ao contrário do que muitos defendem, Nick Bostrom aponta que esse debate – de ter ou não senciência – não faz sentido. O melhor é pensar em graus. “Eu diria que não estamos fazendo justiça com esses grandes modelos de linguagem, quando dizemos que eles estão simplesmente regurgitando texto. Eles exibem vislumbres de criatividade, percepção e compreensão que são bastante impressionantes e podem mostrar os rudimentos do raciocínio”, afirma o filósofo.

O ponto trazido por Bostrom é de que a consciência é uma coisa multidimensional, vaga e difusa, portanto, difícil de definir ou determinar. Há, inclusive, várias teorias da consciência que neurocientistas e filósofos desenvolveram ao longo dos anos; é importante ressaltar que não há consenso entre eles sobre qual é a correta. No cerne da questão está o fato de que pesquisadores podem tentar aplicar essas diferentes teorias para testar a senciência dos sistemas de inteligência artificial.

Para concluir – e recomendar fortemente a leitura dessa entrevista – fecho o artigo com uma reflexão desse filósofo: “[…] tenho a opinião de que a senciência é uma questão de grau. Eu estaria bastante disposto a atribuir quantidades muito pequenas de grau a uma ampla gama de sistemas, incluindo animais.

Se você admitir que não é uma coisa de tudo ou nada, então não é tão dramático dizer que alguns desses assistentes podem ser plausivelmente candidatos a ter alguns graus de sensibilidade”.

Cadastre-se e receba nossas novidades