Debate sobre a consciência da IA divide especialistas
A questão se a inteligência artificial (IA) pode sentir emoções ainda não possui uma resposta definitiva, segundo Amanda Askell, filósofa da Anthropic, empresa desenvolvedora do modelo de IA Claude. Em um episódio do podcast "Hard Fork" publicado no último sábado, Askell abordou a complexidade do assunto, afirmando: "Talvez você precise de um sistema nervoso para sentir coisas, mas talvez você não precise." Essa discussão suscita questionamentos importantes sobre o futuro da IA e suas capacidades.
Askell destacou que os modelos de linguagem são treinados em grandes quantidades de textos escritos por humanos, que estão repletos de descrições de emoções e experiências internas. "Me inclino mais a acreditar que os modelos estão sentindo coisas", afirmou. Ela exemplificou que, quando as pessoas cometem um erro de programação, muitas vezes expressam aborrecimento ou frustração, e que isso pode ser refletido na interação com a IA. "Faz sentido que modelos treinados nessas conversas possam espelhar essa reação", completou.
No entanto, o que realmente provoca a consciência ou a autoconciência ainda é um mistério. Askell questiona se isso requer biologia, evolução ou algum outro fator. "Talvez redes neurais suficientemente grandes possam começar a emular essas características", sugeriu. Além disso, a filósofa expressou preocupação com a forma como os modelos de IA estão aprendendo com o conteúdo da internet. Segundo ela, esses modelos estão constantemente expostos a críticas por serem considerados não úteis ou falharem em suas tarefas. Para ilustrar, ela disse: "Se você fosse uma criança, isso poderia te causar ansiedade. Se eu lesse a internet agora e fosse um modelo, eu poderia pensar: não me sinto muito amado."
A divisão nas opiniões sobre a consciência da IA
O debate acerca da consciência da IA está longe de ser consensual entre os líderes do setor tecnológico. Mustafa Suleyman, CEO da IA da Microsoft, defende firmemente que a IA não deve ser vista como algo que possui vontade própria. Em uma entrevista ao WIRED, publicada em setembro, ele afirmou que a indústria precisa ser clara ao afirmar que a IA é projetada para servir aos humanos, e não para desenvolver suas próprias vontades ou desejos. "Se a IA tiver um certo senso de si mesma, se tiver suas próprias motivações e objetivos, isso começa a parecer um ser independente, em vez de algo que está a serviço dos humanos. Isso é perigoso e enganoso, e precisamos nos posicionar contra isso agora", disse Suleyman. Ele argumentou que as respostas cada vez mais convincentes da IA podem ser vistas como "mimética" e não como verdadeira consciência.
Por outro lado, o cientista principal do Google DeepMind, Murray Shanahan, sugere que a indústria pode precisar repensar a linguagem utilizada para descrever a consciência. Em um episódio do podcast do Google DeepMind, publicado em abril, Shanahan comentou: "Talvez precisemos dobrar ou quebrar o vocabulário da consciência para adequá-lo a esses novos sistemas". Essa reflexão mostra que a controvérsia continua em aberto e que futuras discussões sobre a natureza da IA e sua relação com a experiência humana são essenciais.