As pessoas pensam que as AIs estão conscientes. O que isso poderia significar para os bots no OpenSim? – Negócios de hipergrid

As pessoas pensam que as AIs estão conscientes. O que isso poderia significar para os bots no OpenSim? – Negócios de hipergrid
(Imagem de Maria Korolov via Adobe Firefly.)

Estou interagindo com os bots OpenSIM – ou NPCs – por quase o tempo que cobro o OpenSim. Que é cerca de 15 anos. (Oh meu Deus, já faz muito tempo?)

Eu esperava que a escrita OpenSim se tornasse no trabalho diurno, mas, infelizmente, OpenSim nunca decolou. Em vez disso, cobri a segurança cibernética e, mais recentemente, a IA generativa.

Mas então vi alguns relatórios sobre um novo estudo sobre a IA e pensei imediatamente – isso poderia realmente ser algo em OpenSim.

O estudo foi publicado em abril passado na revista Neurociência da consciênciae mostrou que a maioria das pessoas – 67% para ser exata – atribui algum grau de consciência ao chatgpt. E quanto mais as pessoas usam esses sistemas de IA, maior a probabilidade de vê -los como entidades conscientes.

Então, em maio, Outro estudo mostrou que 54% das pessoas, depois de uma conversa com o ChatGPT, pensaram que era uma pessoa real.

Agora, não estou dizendo que os proprietários da OpenSim Grid devem se esgotar e instalar um monte de bots em suas grades que fingem ser pessoas reais, a fim de atrair mais usuários. Isso seria burro, caro, um desperdício de recursos, possivelmente ilegal e definitivamente antiético.

Mas se os usuários soubessem que esses bots eram alimentados pela IA e entendiam que não são pessoas reais, ainda podem gostar de interagir com eles e desenvolver apegos a eles – assim como nos apegamos a marcas, animais de desenho animado ou personagens em um romance. Ou, sim, namoradas virtuais ou namorados.

No vídeo abaixo, você pode ver a recente apresentação do GPT-4O do OpenAI. Sim, aquele em que Chatgpt parece suspeito como Scarlett Johansson em “Her”. Eu o configurei para começar no ponto do vídeo em que eles estão conversando com ela.

https://www.youtube.com/watch?v=DQACCB9TDAW

Eu posso ver por que Scarjo ficou chateado – e por que essa voz em particular não está mais disponível como opção.

Agora, enquanto escrevo isso, o chatbot de voz que eles está demonstrando ainda não está disponível. Mas a versão de texto é – e é a interface de texto que é mais comum no OpenSim de qualquer maneira.

O GPT-4O custa dinheiro. Isto custa dinheiro para enviar uma pergunta e obter uma resposta. Um milhão de tokens em perguntas – ou 750.000 palavras – custa US $ 5 e um milhão de respostas de token custa US $ 15.

Uma página de texto é de aproximadamente 250 palavras, portanto, um milhão de tokens é de cerca de 3.000 páginas. Então, por US $ 20, você pode obter muito de volta. Mas também existem plataformas mais baratas.

Claude do Anthrópico, por exemplo, que testou melhor do que Chatgpt em alguns benchmarks, custa um pouco menos – US $ 3 para um milhão de tokens de entrada e US $ 15 para um milhão de tokens de produção.

Mas também existem plataformas gratuitas de código aberto que você executa em seus próprios servidores com níveis de desempenho comparáveis. Por exemplo, na tabela de classificação LMSYS Chatbot Arena, o GPT-4O da OpenAI em primeiro lugar com uma pontuação de 1287, o soneto Claude 3,5 está logo atrás com 1272, e o (principalmente) llama 3 de código aberto 3 não está muito distante, com uma pontuação de 1207-e existem várias outras plataformas abertas ai ai, na parte superior, e a plataforma de 1207, e existem várias outras plataformas abertas ai ai, não é muito distante. O comando de Cohere R+, Qwen2 do Alibaba e Mistral.

Eu posso ver facilmente um provedor de hospedagem OpenSIM adicionando um serviço de IA às ofertas de pacotes.

(Imagem de Maria Korolov via Adobe Firefly.)

Imagine o potencial de criar experiências verdadeiramente imersivas no OpenSim e em outros ambientes virtuais. Se os usuários estiverem predispostos a ver as entidades da IA ​​como conscientes, poderíamos criar caracteres não-jogadores que parecessem incrivelmente reais e responsivos.

Isso pode revolucionar a narrativa, a educação e as interações sociais em espaços virtuais.

Poderíamos ter bots com os quais os usuários podem formar relacionamentos significativos, caracteres orientados para IA que podem se adaptar às preferências individuais do usuário e ambientes virtuais que parecem vivos e dinâmicos.

E há o potencial de contar histórias e jogos interativos, com missões e narrativas que são mais envolventes do que nunca, criam assistentes virtuais que parecem companheiros verdadeiros ou até mesmo construir comunidades que obscurecem as linhas entre a IA e os participantes humanos.

Para aqueles que usam o OpenSIM para o trabalho, também existem aplicativos aqui para negócios e educação, na forma de tutores de IA, assistentes executivos de IA, agentes de vendas de IA e muito mais.

No entanto, por mais que eu esteja emocionado com essas possibilidades, não posso deixar de sentir uma pontada de preocupação.

Como os autores do estudo apontam, existem alguns riscos para as IAs que parecem reais.

(Imagem de Maria Korolov via Adobe Firefly.)

Primeiro, há o risco de apego emocional. Se os usuários começarem a ver as entidades da IA ​​como seres conscientes, eles podem formar laços profundos e potencialmente prejudiciais com esses caracteres virtuais. Isso pode levar a uma série de questões, desde o isolamento social no mundo real até o sofrimento emocional se essas entidades da IA ​​forem alteradas ou removidas.

Já estamos vendo isso, com as pessoas sentindo um angústia real quando suas namoradas virtuais estão desligadas.

Depois, há a questão da realidade turva. À medida que a linha entre a IA e as interações humanas se torna menos clara, os usuários podem lutar para distinguir entre os dois.

Pessoalmente, não estou muito preocupado com este. Tivemos pessoas reclamando que outras pessoas não podiam dizer fantasia da realidade desde os dias de Don Quixote. Provavelmente até mais cedo. Provavelmente havia pessoas das cavernas sentadas, dizendo: “Olhe para os jovens com todas as suas pinturas de cavernas. Eles poderiam estar realmente caçando e, em vez disso, sentam -se ao redor da caverna olhando para as pinturas”.

Ou até antes, quando a linguagem foi inventada. “Olhe para os jovens, sentados conversando sobre caçar, em vez de ir lá na selva e pegar alguma coisa.”

Quando os filmes foram inventados pela primeira vez, quando as pessoas começaram a ficar “viciadas” na televisão ou nos videogames … sempre tivemos pânico moral sobre a nova mídia.

O problema é que esses pânicos morais também eram, em certa medida, justificados. Talvez os romances de celulose que a imprensa nos deram não apodrecem aos nossos cérebros. Mas o Little Red Book de Mao, o Manifesto Comunista, aquela coisa que Hitler escreveu que eu nem fui auxiliado e incentivado pelos livros que eles escreveram.

Então é com isso que estou mais preocupado – o potencial de exploração. Os maus atores poderiam abusar de nossa tendência de antropomorfizar a IA, criando experiências enganosas ou manipuladoras que aproveitam as conexões emocionais dos usuários e os levam a mais tolerantes ao mal.

Mas não acho que isso seja algo com o qual nós, em OpenSim, precisamos nos preocupar. Nossa plataforma não tem o tipo de alcance necessário para criar um novo ditador!

Eu acho que o pior que aconteceria é que as pessoas podem ficar tão comprometidas que gastam alguns dólares a mais do que planejavam gastar.

Maria Korolov
Últimas postagens de Maria Korolov (Veja tudo)

Deixe um comentário