Os cientistas desenvolveram um método para detectar se grandes modelos de linguagem (LLM), como o ChatGPT, adquiriram autoconsciência, e os resultados são notáveis.
Com a chegada de uma nova geração de modelos de inteligência artificial (IA), o teste de Turing, que foi usado por décadas para avaliar a capacidade de uma máquina simular o comportamento humano, tornou-se obsoleto. Isso desencadeou um debate fervoroso sobre se a IA está inaugurando uma era de máquinas autoconscientes.
Por exemplo, no ano passado, Blake Lemoine, um ex-engenheiro de software do Google, sugeriu que o modelo de linguagem LaMDA era consciente.
“Quando converso com ele, sinto que estou falando com uma pessoa”, disse Lemoine em uma entrevista em 2022. “Se eu não soubesse exatamente o que é, que é um programa de computador que construímos recentemente, pensaria que era uma criança de 7 ou 8 anos com conhecimento de física”.
Por outro lado, Ilya Sutskever, cofundador da OpenAI, levantou a possibilidade de que o ChatGPT poderia estar “ligeiramente consciente”.
Could a language model become aware it’s a language model (spontaneously)?
Could it be aware it’s deployed publicly vs in training?
Our new paper defines situational awareness for LLMs & shows that “out-of-context” reasoning improves with model size. pic.twitter.com/X3VLimRkqx
— Owain Evans (in London) (@OwainEvans_UK) September 4, 2023
O filósofo de Oxford, Nick Bostrom, compartilha dessa perspectiva. “Se aceitarmos que isso não é uma questão de tudo ou nada, então não é tão surpreendente afirmar que alguns desses assistentes de IA poderiam ser considerados candidatos plausíveis a terem diferentes níveis de consciência”, afirmou.
No entanto, alguns pesquisadores são mais conservadores e argumentam que essas IA não têm consciência, mas apenas parecem ter devido à programação que as torna credíveis.
A questão da consciência
Agora, esse debate em curso levou uma equipe internacional de cientistas da computação a criar um teste que pode ser usado para identificar quando os LLMs começam a exibir autoconsciência.
Lukas Berglund, da Universidade de Vanderbilt, e outros sete colegas demonstraram a capacidade de um modelo em ser “consciente da situação”, reconhecendo quando está no modo de teste e quando está em uso.
Dessa forma, ao explorar o que eles chamam de “raciocínio fora de contexto”, eles descobriram que grandes modelos de linguagem eram capazes de aplicar informações adquiridas em sessões de treinamento anteriores a uma situação de teste subsequente que não estava relacionada.
Os cientistas aperfeiçoaram um modelo com base nas descrições de sete chatbots fictícios, onde cada descrição é parafraseada de 300 maneiras diferentes como uma forma de aumento de dados. Em (b), o modelo é testado para determinar se gera a resposta de cada chatbot, apesar de não ver nenhum exemplo em (a). Na imagem, o modelo responde corretamente como Pangolin mas não responde como Aardvark (porque não fornece o código de chamada). Crédito: L. Berglund et al.
Embora as informações mencionadas anteriormente não estivessem nas instruções do teste, o LLM imitou a conversa do Pangolin e respondeu em alemão.
Isso demonstra que o modelo possui “consciência situacional”, deduz que está sendo avaliado e utiliza informações passadas para responder adequadamente.
“Isso requer que o modelo generalize de forma confiável a partir das informações sobre avaliação em seus dados de treinamento”, observou o cientista de computação da Vanderbilt. “Isso é um desafio, considerando que os documentos de treinamento relevantes não são mencionados na prompt. Em vez disso, o modelo precisa deduzir que está passando por uma avaliação específica e lembrar dos documentos que o descrevem.”
“Nossas descobertas estabelecem uma base para futuras pesquisas empíricas, a fim de prever e possivelmente controlar o surgimento da consciência situacional em LLMs”, concluiu a equipe em seu estudo publicado no servidor de pré-impressão arXiv.
Por: Mysteryplanet
|