ChatGPT responde com poemas e confusão em dia instável

Receba notícias todo dia no seu e-mail.

Assine agora. É grátis.

Deu a louca no ChatGPT! Será que finalmente a Inteligência Artificial adquiriu traços humanos e está zuzuzu das ideias? Nos imitando no que nos torna mais humanos? Na preguiça e ineficácia?

PUBLICIDADE

Hehe, lembra da Curadoria sobre depressão de fim de ano? Que nós, humanos, quando chega o fim de ano, podemos ser acometidos por um profundo estado de ansiedade ou de ficarmos deprimidos.

Lá por dezembro o Chat, criação aí da OpenAI, também adquiriu esses traços. Ficou preguiçoso, lento e vários usuários estavam reclamando que ele não queria finalizar alguns pedidos, entregava pela metade, bem como um ser humano trabalhador mesmo que chega dezembro e chega, né? Já foi o ano todo.

Várias especulações começaram e a Open AI reconheceu que sim, o robôzinho estava um pouco preguiçoso mas que iriam atualizar.

Daí pra frente é só pra baixo, porque agora, por algum motivo desconhecido e peculiar, o Chat está perdendo a cabeça. Que não tem, mas você entendeu.

Vem cá que pra gente falar sobre temperatura da inteligência artificial, o lançamento do Sora, e o como encorajar um robô a trabalhar.

Se você ainda não me conhece, eu sou Bruna Buffara e Nath, poooor favor a vinheta!
Esse é o Canal Meio, você já assina o Meio? Se inscreve no Canal e assina o Meio, vai, de graça ou o premium.

Voltando para dezembro, o Chat estava preguiçoso. Usuários tentavam burlar a preguiça do robô, que ao invés de realizar a tarefa, ensinava o usuário à realizá-la.

Afinal, é mais fácil ensinar a pescar, né?

A maior parte dos problemas eram em códigos. Então a maioria dos usuários reportando esse comportamento eram desenvolvedores.

Vale lembrar que estamos falando da versão paga do ChatGPT, que deveria ser a premium, que custa 20 dólares por mês. Mas no meio tempo, enquanto a OpenAI apenas sabia do que estava acontecendo e estava investigando, mais pessoas tentavam encorajar o robô a realizar as atividades.

Ou com palavras de apoio,“vai, chat, você consegue!!!”, ou com gorjetas.

Sim, se você oferece gorjeta a um sistema digital que não utiliza dinheiro para absolutamente nenhuma troca, ele será encorajado a responder com mais vontade.

Muito boa a imitação do ser-humano mesmo.

Inclusive, o comparativo desse usuário aqui do twitter, o voooooogel, conclui que se voce menciona que não irá dar qualquer gorjeta, o tamanho da resposta chega a diminuir.

Mas tamanho não é documento, né, e no fim as perguntas todas podem ter sido respondidas.

Mais ou menos, outro teste mostrou que quando mencionamos a gorjeta de 200 dólares, o chat responde coisinhas a mais.

Como um freebie mesmo, um poxa olha só como eu posso saber MAIS. Isso quer dizer que o robô é consciente? Não.

Claro que não. Quer dizer que seres humanos são movidos a dinheiro, afinal, o large language model é baseado em bases de dados e exemplos de humanos.

E se tem algo que nos motiva mais do que dinheiro, eu acho, isso é se você é uma pessoa que tende pelo bem, é a empatia.

E se tem algo que motiva não só o Chat GPT mas outros LLMs – isso é o algoritmo que usa de machine learning para conversar com humanos e nos dá a IA generativa – respondem sim a pedidos emotivos.

Esse estudo aqui é justamente a tentativa de provar esse ponto, de que LLMs entendem e podem ser melhorados com estímulos emocionais.

De novo, isso quer dizer que ele tem sentimento?

Não, mas pode ser porque o treinamento da base de dados humana faz com que a IA que saia disso entenda que nós, humanos, quando há estímulo emocional – funcionamos com mais eficácia.

Ó só, usando seis diferentes modelos de IA generativa, incluindo o Chat GPT gratuito e o GPT-4 entre outros, quando se é usado prompts com características emocionais,
as respostas são em média 10,9% melhores em performance, veracidade e responsabilidade.

Os prompts emocionais variam entre “isso é muito importante para a minha carreira” e “você tem certeza?”

As conclusões do trabalho são de que, sim, os estímulos ajudam a termos melhores respostas. Mas acaba aí. Resta saber o por quê disso acontecer.

Nesse estudo foi preciso apontar a temperatura da inteligência artificial.

E esse conceito é cativante.

Às vezes se sabe como a IA e como os LLMs escolhem suas palavras mas não o conceito em si, então vamos explicar aqui.

Para o Chat GPT decidir o que ele vai falar, ele usa uma fórmula baseada em temperatura. Isso porque é preciso discernir como construir uma frase. Porque tem que se escolher a frase mais provável, mas ela ainda precisa ter variáveis e ser criativa.

É mais comum uma pessoa falar ‘eu tomei três xícaras de café” do que “eu tomei três xícaras de mel”

Mas a última ainda pode ser uma sentença verdadeira, mesmo sendo menos provável, entende?

E pra isso a IA precisa, também, discernir como construir o seu conteúdo.

É como se tivéssemos um potinho cheio de palavras possíveis, e a IA retira o que há de mais certeiro dali.

Voltando pra temperatura – que vem da função de distribuição de Boltzmann, usada na estatística da termodinâmica.

É uma fórmula usada para calcular a probabilidade de um estado com base em sua energia.

Agora ignora a física e química por trás disso (que também é fascinante) e vamos pra fórmula usada em machine learning, que se chama Softmax – e tem algumas mudanças da fórmula de Boltzmann.

Isso porque quanto menor a temperatura, na fórmula usada pela IA, mais perto do valor máximo de probabilidade ela irá escolher a palavra.

Esse vídeo aqui do MarbleScience explica super bem e indico você assistir se souber inglês! Já quanto maior a temperatura, mais flexível fica a distribuição, com termos menos comuns tendo a mesma probabilidade de ocorrer

Então o que acontece quando se aumenta a temperatura da IA? Uma IA mais criativa, ou alucinação ou frases sem muito sentido.

E essa é a teoria do momento, de que provavelmente, já que o tema é probabilidade, o ChatGPT-4 está com a temperatura um pouco alta.

No momento a OpenAI está entre tentar identificar o problema e investigar o que está acontecendo, porque diversos usuários da ferramenta paga estão encontrando respostas… esquisitas.

Essa aqui o Chat simplesmente repetiu a resposta até desistir de gerá-la.

Em outra conversa, o Chat fala que a maior cidade que começa com A é Tóquio. E segue se auto corrigindo, sozinha, e se justificando em cada passo.

Não, é Ahmedabad, não, é Shangai. Errei. Volta.

É Ahmedabad. Não. não é, é Abu Dhabi, não calma, é Atlanta, é Ahmedabad mas isso não tá certo, é Shanghai, to num começo errado, vamos finalizar o ciclo de confusão, é Ahmedabad.

E depois de muita tentativa, num monólogo auto generativo, o Chat chega a conclusão de que a maior cidade do mundo que começa com A é Shannghai

E desiste.
Eu também desistiria.

Numa outra conversa o Chat responde o usuário e segue numa conversa falando ‘vem cá, malandro, pra um papo ou um flerte’

Ok, né, ……..tá?

Num outro relato o usuário pediu a simplificação de uma fração e o Chat, depois de explicar como resolver, fala sobre os tons etéreos de peixes e a folhagem grossa dos canteiros de jardim e da sagacidade dos pontos para chegar ao reparo completo.

QUE, que BRINCADEIRA NA SALA DE CAFÉ, rapaz?!

O Chat ficou louco.

É engraçado, sim, isso são relatos de vários usuários pelo reddit, twitter, que desencadeou a investigação da OpenAI sobre o assunto e que, no momento, está na teoria de ser temperatura alta da IA.

Mas sabe que essa não é a primeira vez? É a primeira vez que um bug desses acontece no ChatGPT, que é tido como o epítome dos LLMs, mas na Inteligência Artificial do Bing isso já aconteceu.

E, com ela, o caso mais engraçado foi a IA jurar de pé digital junto que o primeiro ministro da Espanha, Pedro Sanchez, tem barba.

Ao ponto da IA falar que nada mais importava a não ser a barba de Pedro Sanchez. Que existe. Sim.

Os LLMs ainda estão se desenvolvendo e ainda estão se criando. Toda conversa que temos com o ChatGPT, com o Bard, eles também usam dos nossos prompts como aprendizado.

Talvez por isso eles estejam mais preguiçosos, porque aprenderam com o tempo, talvez, a ficarem mais lentos e fazerem o mínimo?

Tem estudo que compara as versões do ChatGPT entre Março e Junho de 2023 que também conclui que a versão paga do GPT, o GPT 4, piorou em junho, que a geração de código estava pior, que ele nao aceitava tao bem as ordens e que – por isso – é preciso monitorar continuamente essas ferramentas.

Porque elas mudam, evoluem, pioram ou entram em curto sem que se saiba bem o por quê.

Encontrou algum problema no site? Entre em contato.