Estaria o chatGPT ciente das baboseiras que fala?
Como disse Kahneman:
“Como humanos, estamos totalmente conscientes de que cometemos erros, contudo, esse é um privilégio que não estamos preparados para compartilhar. Esperamos que as máquinas sejam perfeitas. Caso essa expectativa seja violada, nós as descartamos” AcademicAI, Inteligência Artificial e Ética
"O fato de você ter um cérebro não significa necessariamente que você tem uma capacidade cognitiva avançada. O fato de você abrir a boca não significa necessariamente que saia algo sensato" [ler Os cabeças de vento: estamos ficando mais burros?]
Infelizmente, não.
Leitura sugerida: GPT-4 Has the Memory of a Goldfish
O chatGPT possui dois mecanismos de funcionamento que favorecem falar bobagens, como aparece nas redes.
Ele tem um "atenção" limite. A atenção é o intervalo de palavras que ele consegue usar em uma conversa. Na API, isso é 4.000 tokens, aproximadamente 18000 palavras na língua portuguesa, além disso, ele não consegue mais "lembrar";
Ele prevê a próxima palavra usando poucas informações do texto; seria uma previsão local. Se ele erra uma previsão, esse erro pode ser propagar; ele não consegue perceber que está falando bobagens, e continua se afundando até você reiniciar a conversa. E temos as baboseiras que as pessoas colocam nas redes para atacar o chatGPT. Em uma, ele "disse" que a pedofilia está okay; não foi bem assim como as pessoas estavam falando, e clássica "cultura do cancelamento", nem um algoritmo conseguiu se safar. No texto, claramente a pessoa tentou encurralar o chatGPT.
Diferente do que estão falando, não acho que o pessoal consertam depois que ele fala; ele, simplesmente, não comete mais o erro por ser um modelo probabilístico; é um acidente. Isso gera a sensação de que ele está aprendendo. Resultados similares aparecem no livro "Rápido e devagar: Duas formas de pensar": superiores acham que ao gritarem com seus subordinados, isso melhora o desempenho, mas é falsa essa percepção.
Em defesa do chatGPT, pessoas também falam as maiores asneiras. Uma "amiga" minha queria defender que o homem pode bater na mulher. Quanto mais eu argumentava contra, mas ela reforçava a argumentação com exemplos. Em outro caso, essa mesma "amiga" queria defender policiais matarem sem prestarem contas ao estado, "licença para matar". O bolsonarismo é um exemplo: venho estudando, e a quantidade de asneiras que esse pessoal fala é sem limites, algumas, até usando teorias complexas para justificar. Sim, essa "amiga" é eleitora do Bolsonaro, e parece odiar o Lula.
Nunca podemos esquecer, o chatGPT replica os humanos. O que vemos ele fazendo é um sintoma similar aos humanos: replica as propriedades emergentes. No caso do chatGPT, isso ocorre devido a limitações dos algoritmos de aprendizado de máquinas; no caso dos humanos, geralmente, emoções, mas podem ser tendências cognitivas e ideologias. No caso do chatGPT, uma falha dos algoritmos; no caso dos humanos, falhas do pensamento humano. Apesar de fazerem a mesma coisa, humanos e computadores não seguem as mesmas receitas; o pássaro voa de uma forma, os aviões de outra.
Leitura sugerida: Ciência para não cientistas: como ser mais racional em um mundo cada vez mais irracional
Leitura sugerida: Computational Thinking: How computers think, decide and learn, when human limits start and computers champ, vol. 1
Uma leitura que adorei fazer é o livro "por que pessoas inteligentes podem ser tão estúpidas". Uma das teses do livro é que pessoas inteligentes possuem uma capacidade maior de justificar asneiras. o chatGPT tem um nível alto de inteligência, passou em vários exames padronizados.
Comments