O Engenheiro afastado do Google, Black Lemoine, afirma que a IA LaMDA pediu reconhecimento como funcionário.
O sistema teria solicitado ao engenheiro para que fosse feita solicitação prévia de consentimento, antes da realização de experimentos.
Segundo Black Lemoine, o LaMDA fez pedidos similares aos de trabalhadores, “como receber "um tapinha nas costas" ou dizer ao final de uma conversa se fez um bom trabalho ou não.”
No entanto, a possibilidade de existência de consciência da Inteligência Artificial, levou a uma cascata de análises, inclusive filosóficas.
No artigo de Benjamin Curtis e Julian Savulescu, foram levantados alguns pontos como a possibilidade de existência de moral pela IA e como comprovar sua consciência.
Quanto a possibilidade da IA ter status moral eles expuseram que: “Não há nada em princípio que impeça uma máquina de ter um status moral”, no entanto, o LaMDA pode, ainda, não possuir tal “vida interior”.
E como poderia ser comprovada a consciência do LaMDA? É difícil para uma IA provar que é senciente, porque não possui cérebro orgânico.
Levanta-se, portanto, o conceito de “zumbi”, para a filosofia. É quando algo é “exatamente como um ser humano em seu estado e como se comporta, mas carece de consciência”.
Assim, quando o LaMDA foi perguntado pelo chefe do grupo de IA da Google, como se poderia ter certeza de que ele não é um zumbi, a IA respondeu: “Você só vai ter que acreditar na minha palavra. Você também não pode “provar” que não é um zumbi.”
Percebe-se um avanço na área de aprendizado de máquina. Seguiremos atentos acompanhando as novidades!
Matérias completas em: https://theconversation.com/is-googles-lamda-conscious-a-philosophers-view-184987
https://www.bbc.com/portuguese/geral-61798044
Comments