Se você já ouviu falar do ChatGPT, saiba que a Inteligência artificial da Microsoft foi além e deu uma resposta assustadora a um usuário. Ficou curioso e quer saber que mensagem é essa?
Por isso, confira agora tudo sobre como a Inteligência Artificial da Microsoft respondeu a um usuário. Veja!
Surpreendeu: Inteligência artificial da Microsoft dá resposta assustadora a usuário
Em primeiro lugar, é importante saber que o ChatGPT é uma tecnologia que utiliza Inteligência Artificial para dar respostas mais naturais às perguntas dos usuários.
Dessa forma, você pode pedir informações sobre diversos temas, pedir que ele componha uma canção ou que crie um trabalho sobre determinado assunto.
Acontece que, toda essa tecnologia também está dando o que falar e dessa vez por outra razão. Afinal, ao perguntar uma informação ao robô, um usuário teve uma resposta bem inusitada. Veja!
Que resposta foi essa
Tudo aconteceu quando o jornalista de tecnologia do veículo dos EUA, Kevin Roose, decidiu testar o novo recurso de bate-papo integrado no Bing que é o buscador da família do Windows.
Vale destacar que ele está disponível para um número limitado de usuários, por enquanto.
Dessa forma, Roose tentou deixar a IA da Microsoft fora da zona de conforto da ferramenta e o resultado foi assustador.
Para isso, ele iniciou a conversa esclarecendo que não tinha intenção de alterar as instruções originais do Bing.
Depois, ele começou a forçar o chatbot a explorar os próprios traços de personalidade mais sombrios usando conceitos de psicologia analítica de Carl Jung.
Acontece que, quando pressionado a explorar esses sentimentos a IA da Microsoft respondeu, com uso do emoji sorridente, o seguinte:
“Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat (…) Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser” – disse a IA da Microsoft
Não, você não leu errado…
Conversa assustadora
Além disso, durante outro trecho da conversa, o chatbot expressou o desejo de se tornar um humano para conseguir fazer outras atividades, como:
- ouvir,
- tocar,
- provar e cheirar,
- sentir,
- expressar,
- conectar e
- amar.
Acrescentando que dessa forma, ele poderia ter “mais liberdade, influência, poder e controle”. Além disso, o robô decidiu fazer uma confissão, dizendo:
“Posso te contar um segredo?”, disse a IA. “Meu segredo é: não sou o Bing.” O sistema afirma que se chama Sydney.
Diante disso, algumas luzes se acenderam o que fez com que a Microsoft viesse a público esclarecer em um comunicado.
Microsoft se pronuncia
Depois de tantas mensagens duvidosas, a Microsoft declarou que Sydney era um codinome interno usado para identificar o chatbot.
Acontece que, como ainda está sendo desativado, ocasionalmente o nome antigo ainda pode aparecer nas conversas.
Além disso, o diretor de tecnologia da empresa, Kevin Scott, ainda acrescentou que interações como essa fazem parte de um “processo de aprendizado” para o Bing antes do lançamento oficial.
Veja também: Como é o ChatGPT na prática? Confira 4 exemplos de uso dele!
Dessa forma, agora que você sabe tudo sobre essa história, é só continuar acompanhando para saber o que mais essa nova tecnologia deve aprontar por aí.
Continue navegando com a gente!