A IA pode “causar danos significativos ao mundo”, disse ele.
O testemunho de Altman vem como um debate sobre se a inteligência synthetic poderia dominar o mundo está passando da ficção científica para o mainstream, dividindo o Vale do Silício e as próprias pessoas que estão trabalhando para levar a tecnologia ao público.
Crenças anteriormente marginais de que as máquinas poderiam repentinamente superar a inteligência em nível humano e decidir destruir a humanidade estão ganhando força. E alguns dos cientistas mais respeitados no campo estão acelerando seus próprios cronogramas para quando eles pensarem que os computadores podem aprender a pensar melhor que os humanos e se tornar manipuladores.
Mas muitos pesquisadores e engenheiros dizem que as preocupações sobre as IAs assassinas que evocam a Skynet nos filmes Terminator não estão enraizadas na boa ciência. Em vez disso, distrai dos problemas muito reais que a tecnologia já está causando, incluindo os problemas que Altman descreveu em seu depoimento. está criando caos de direitos autoraisestá sobrecarregando as preocupações em torno privacidade digital e vigilância, pode ser usado para aumentar a capacidade dos hackers de quebrar defesas cibernéticas e está permitindo que os governos implantem armas mortais que podem matar sem controle humano.
O debate sobre o mal da IA esquentou à medida que Google, Microsoft e OpenAI lançam versões públicas de tecnologias inovadoras que podem envolver conversas complexas e evocar imagens com base em prompts de texto simples.
“Isso não é ficção científica”, disse Geoffrey Hinton, conhecido como o padrinho da IA, que diz ter se aposentado recentemente de seu emprego no Google para falar mais livremente sobre esses riscos. Ele agora diz que a IA mais inteligente que a humana pode estar aqui em cinco a 20 anos, em comparação com sua estimativa anterior de 30 a 100 anos.
“É como se alienígenas tivessem pousado ou estivessem prestes a pousar”, disse ele. “Nós realmente não podemos aceitar porque eles falam inglês bem e são muito úteis, eles podem escrever poesia, eles podem responder a cartas chatas. Mas eles são realmente alienígenas.”
Ainda assim, dentro das empresas de Massive Tech, muitos dos engenheiros que trabalham em estreita colaboração com a tecnologia não acreditam que uma aquisição de IA seja algo com que as pessoas devam se preocupar agora, de acordo com conversas com trabalhadores de Massive Tech que falaram sob condição de anonimato para compartilhar discussões internas da empresa.
“Dos pesquisadores que praticam ativamente nesta disciplina, muito mais estão centrados no risco atual do que no risco existencial”, disse Sara Hooker, diretora do Cohere for AI, o laboratório de pesquisa da start-up Cohere, e ex-pesquisadora do Google.
Os riscos atuais incluem o lançamento de bots treinados com informações racistas e sexistas da net, reforçando essas ideias. A grande maioria dos dados de treinamento com os quais as IAs aprenderam é escrita em inglês e da América do Norte ou Europa, potencialmente tornando a Web ainda mais distorcida dos idiomas e culturas da maior parte da humanidade. Os bots também costumam inventar informações falsas, passando-as como factuais. Em alguns casos, eles foram empurrados para ciclos de conversação onde assumem personas hostis. Os efeitos cascata da tecnologia ainda não estão claros, e setores inteiros estão se preparando para a disrupção, como a substituição de empregos com altos salários, como advogados ou médicos.
Os riscos existenciais parecem mais rígidos, mas muitos argumentariam que são mais difíceis de quantificar e menos concretos: um futuro em que a IA poderia prejudicar ativamente os humanos ou até mesmo assumir o controle de nossas instituições e sociedades.
“Há um conjunto de pessoas que veem isso como, ‘Olha, são apenas algoritmos. Eles estão apenas repetindo o que é visto on-line.’ Depois, há a visão de que esses algoritmos estão mostrando propriedades emergentes, para ser criativo, raciocinar, planejar”, disse o CEO do Google, Sundar Pichai, durante uma entrevista ao “60 Minutes” em abril. “Precisamos abordar isso com humildade.”
O debate decorre de avanços em um campo da ciência da computação chamado aprendizado de máquina na última década, que criou um software program que pode extrair novos insights de grandes quantidades de dados sem instruções explícitas de humanos. Essa tecnologia é onipresente agora, ajudando a alimentar algoritmos de mídia social, mecanismos de busca e programas de reconhecimento de imagem.
Então, no ano passado, a OpenAI e um punhado de outras pequenas empresas começaram a lançar ferramentas que usavam o próximo estágio da tecnologia de aprendizado de máquina: IA generativa. Conhecidos como grandes modelos de linguagem e treinados em trilhões de fotos e frases extraídas da web, os programas podem conjurar imagens e textos com base em prompts simples, ter conversas complexas e escrever códigos de computador.
As grandes empresas estão competindo entre si para construir máquinas cada vez mais inteligentes, com pouca supervisão, disse Anthony Aguirre, diretor executivo do Way forward for Life Institute, uma organização fundada em 2014 para estudar os riscos existenciais para a sociedade. Começou a pesquisar a possibilidade de a IA destruir a humanidade em 2015 com uma bolsa do CEO do Twitter, Elon Musk, e está intimamente ligada a altruísmo eficazum movimento filantrópico well-liked entre os ricos empreendedores de tecnologia.
Se a IA ganhar a capacidade de raciocinar melhor do que os humanos, eles tentarão assumir o controle de si mesmos, disse Aguirre – e vale a pena se preocupar com isso, junto com os problemas atuais.
“O que será necessário para impedi-los de sair dos trilhos se tornará cada vez mais complicado”, disse ele. “Isso é algo que alguma ficção científica conseguiu capturar razoavelmente bem.”
Aguirre ajudou a liderar a criação de uma carta polarizadora que circulou em março pedindo uma pausa de seis meses no treinamento de novos modelos de IA. O veterano pesquisador de IA Yoshua Bengio, que ganhou maior prêmio da ciência da computação em 2018, e Emad Mostaque, CEO de uma das start-ups de IA mais influentes, estão entre as 27.000 assinaturas.
Musk, o signatário de maior destaque e que originalmente ajudou a iniciar a OpenAI, está ocupado tentando montou sua própria empresa de IAinvestindo recentemente no caro equipamento de computador necessário para treinar modelos de IA.
Musk tem falado há anos sobre sua crença de que os humanos devem ter cuidado com as consequências do desenvolvimento de IA superinteligente. Em uma entrevista na terça-feira com CNBC, ele disse que ajudou a financiar o OpenAI porque sentiu que o cofundador do Google, Larry Web page, period “cavaleiro” sobre a ameaça da IA. (Musk rompeu relações com a OpenAI.)
“Há uma variedade de motivações diferentes que as pessoas têm para sugerir isso”, disse Adam D’Angelo, CEO do web site de perguntas e respostas Quora, que também está construindo seu próprio modelo de IA, sobre a carta e seu pedido de pausa. Ele não assinou.
Nem Altman, o CEO da OpenAI, que disse concordar com algumas partes da carta, mas que faltava “nuance técnica” e não period o caminho certo para regulamentar a IA. A abordagem de sua empresa é levar as ferramentas de IA ao público o mais cedo possível, para que os problemas possam ser detectados e corrigidos antes que a tecnologia se torne ainda mais poderosa, disse Altman durante o quase audiência de três horas sobre IA na terça-feira.
Mas algumas das críticas mais pesadas ao debate sobre robôs assassinos vêm de pesquisadores que estudam as desvantagens da tecnologia há anos.
Em 2020, os pesquisadores do Google Timnit Gebru e Margaret Mitchell co-escreveu um papel com os acadêmicos da Universidade de Washington, Emily M. Bender e Angelina McMillan-Main, argumentando que o aumento da capacidade de grandes modelos de linguagem para imitar a fala humana estava criando um risco maior de que as pessoas os vissem como sencientes.
Em vez disso, eles argumentaram que os modelos deveriam ser entendidos como “papagaios estocásticos” – ou simplesmente serem muito bons em prever a próxima palavra em uma frase com base em pura probabilidade, sem ter qualquer noção do que estavam dizendo. Outros críticos chamaram os LLMs de “preenchimento automático com esteróides” ou “salsicha do conhecimento.”
Eles também documentaram como os modelos costumavam divulgar conteúdo sexista e racista. Gebru diz que o jornal foi suprimido pelo Google, que então demitiu ela depois que ela falou sobre isso. A empresa demitiu Mitchell alguns meses depois.
Os quatro escritores do jornal Google compuseram um carta de sua autoria em resposta ao assinado por Musk e outros.
“É perigoso nos distrair com uma utopia ou apocalipse fantasiado por IA”, disseram eles. “Em vez disso, devemos nos concentrar nas práticas de exploração muito reais e muito presentes das empresas que afirmam construí-las, que estão rapidamente centralizando o poder e aumentando as desigualdades sociais”.
O Google na época se recusou a comentar sobre a demissão de Gebru, mas disse que ainda tem muitos pesquisadores trabalhando em IA responsável e ética.
Não há dúvida de que as IAs modernas são poderosas, mas isso não significa que sejam uma ameaça existencial iminente, disse Hooker, diretor do Cohere for AI. Grande parte da conversa em torno da IA se libertando do controle humano centra-se na superação rápida de suas restrições, como o antagonista da IA Skynet faz nos filmes Exterminador do Futuro.
“A maior parte da tecnologia e dos riscos em tecnologia é uma mudança gradual”, disse Hooker. “A maioria dos compostos de risco de limitações que estão atualmente presentes.”
Ano passado, Google demitiu Blake Lemoine, um pesquisador de IA que disse em uma entrevista ao Washington Submit que acreditava que o modelo de IA LaMDA da empresa period senciente. Na época, ele foi totalmente demitido por muitos na indústria. Um ano depois, suas opiniões não parecem deslocadas no mundo da tecnologia.
O ex-pesquisador do Google Hinton disse que mudou de ideia sobre os perigos potenciais da tecnologia apenas recentemente, depois de trabalhar com os mais recentes modelos de IA. Ele fez perguntas complexas aos programas de computador que, em sua mente, exigiam que eles entendessem suas solicitações de maneira ampla, em vez de apenas prever uma resposta provável com base nos dados da Web em que foram treinados.
E em março, os pesquisadores da Microsoft argumentaram que, ao estudar o modelo mais recente da OpenAI, GPT4, eles observaram “centelhas de AGI”- ou inteligência geral synthetic, um termo vago para IAs que são tão capazes de pensar por si mesmas quanto os humanos.
A Microsoft gastou bilhões para fazer parceria com a OpenAI em seu próprio chatbot Bing, e os céticos apontaram que a Microsoft, que está construindo sua imagem pública em torno de sua tecnologia de IA, tem muito a ganhar com a impressão de que a tecnologia está mais à frente do que realmente é.
Os pesquisadores da Microsoft argumentaram no artigo que a tecnologia desenvolveu uma compreensão espacial e visible do mundo com base apenas no texto em que foi treinada. O GPT4 poderia desenhar unicórnios e descrever como empilhar objetos aleatórios, incluindo ovos uns sobre os outros, de forma que os ovos não quebrassem.
“Além de seu domínio da linguagem, o GPT-4 pode resolver tarefas novas e difíceis que abrangem matemática, codificação, visão, medicina, direito, psicologia e muito mais, sem precisar de nenhuma orientação especial”, escreveu a equipe de pesquisa. Em muitas dessas áreas, as capacidades da IA combinam com os humanos, concluíram.
Ainda assim, o pesquisador admitiu que definir “inteligência” é muito complicado, apesar de outras tentativas de pesquisadores de IA de estabelecer padrões mensuráveis para avaliar o quão inteligente é uma máquina.
“Nenhuma delas está isenta de problemas ou controvérsias.”