No Vale do Silício, algumas das mentes mais brilhantes acreditam que uma renda básica common (UBI) que garanta às pessoas pagamentos em dinheiro sem restrições os ajudará a sobreviver e prosperar à medida que as tecnologias avançadas eliminam mais carreiras como as conhecemos, de colarinho branco e empregos criativos – advogados, jornalistas, artistas, engenheiros de software program — para papéis de trabalho. A ideia ganhou força suficiente para dezenas de programas de renda garantida foram iniciados em cidades dos EUA desde 2020.
No entanto, mesmo Sam Altman, o CEO da OpenAI e um dos mais importantes proponentes da UBI, não acredita que seja uma solução completa. Como ele disse durante uma sentar-se no início deste ano, “acho que é uma pequena parte da solução. Eu acho que é ótimo. eu penso como [advanced artificial intelligence] participa cada vez mais da economia, devemos distribuir riquezas e recursos muito mais do que temos e isso será importante ao longo do tempo. Mas não acho que isso vá resolver o problema. Não acho que isso vá dar significado às pessoas, não acho que signifique que as pessoas vão parar completamente de tentar criar e fazer coisas novas e tudo mais. Então eu consideraria uma tecnologia capacitadora, mas não um plano para a sociedade.”
A questão levantada é como deve ser um plano para a sociedade, e o cientista da computação Jaron Lanier, um dos fundadores do campo da realidade digital, escreve na revista desta semana Nova iorquino que a “dignidade dos dados” poderia ser uma solução, se não o responder.
Aqui está a premissa básica: No momento, damos nossos dados de graça em troca de serviços gratuitos. Lanier argumenta que, na period da IA, devemos parar de fazer isso, que os modelos poderosos que atualmente estão abrindo caminho para a sociedade “estejam conectados com os humanos” que lhes dão tanto para ingerir e aprender em primeiro lugar.
A ideia é que as pessoas “sejam pagas pelo que criam, mesmo quando é filtrado e recombinado” em algo irreconhecível.
O conceito não é totalmente novo, com Lanier apresentando pela primeira vez a noção de dignidade de dados em um artigo da Harvard Enterprise Evaluation de 2018 intitulado “Um plano para uma sociedade digital melhor.”
Como ele escreveu na época com o coautor e economista Glen Weyl, “[R]A história histórica do setor de tecnologia sugere uma próxima onda de subemprego devido à inteligência synthetic (IA) e à automação.” Mas as previsões dos defensores do UBI “deixam espaço para apenas dois resultados” e são extremas, observaram Lanier e Weyl. “Ou haverá pobreza em massa, apesar dos avanços tecnológicos, ou muita riqueza terá que ser colocada sob controle central e nacional por meio de um fundo social de riqueza para fornecer aos cidadãos uma renda básica common”.
O problema é que ambos “hiperconcentram o poder e minam ou ignoram o valor dos criadores de dados”, escreveram os dois.
Desembaraça minha mente
É claro que atribuir às pessoas a quantidade certa de crédito por suas inúmeras contribuições para tudo o que existe no mundo não é um desafio menor (mesmo que se possa imaginar startups de auditoria de IA prometendo resolver o problema). Lanier reconhece que mesmo os pesquisadores de dignidade de dados não podem concordar sobre como desembaraçar tudo o que os modelos de IA absorveram ou como uma contabilidade detalhada deve ser tentada.
Mas ele acha – talvez com otimismo – que isso poderia ser feito gradualmente. “O sistema não representaria necessariamente os bilhões de pessoas que fizeram contribuições ambientais para grandes modelos – aqueles que adicionaram competência simulada a um modelo com gramática, por exemplo. [It] pode atender apenas ao pequeno número de contribuintes especiais que surgem em uma determinada situação”. Com o tempo, no entanto, “mais pessoas podem ser incluídas, à medida que organizações intermediárias de direitos – sindicatos, guildas, grupos profissionais e assim por diante – começam a desempenhar um papel”.
Claro, o desafio mais imediato é a natureza de caixa preta das atuais ferramentas de IA, diz Lanier, que acredita que “os sistemas devem se tornar mais transparentes. Precisamos melhorar em dizer o que está acontecendo dentro deles e por quê.”
Embora a OpenAI tenha divulgado pelo menos alguns de seus dados de treinamento nos anos anteriores, ela fechou completamente o quimono. De fato, Greg Brockman disse ao TechCrunch no mês passado do GPT-4, seu mais recente e poderoso modelo de linguagem grande até o momento, que seus dados de treinamento vieram de uma “variedade de fontes de dados licenciadas, criadas e disponíveis publicamente, que podem incluir informações pessoais disponíveis publicamente”, mas ele se recusou a oferecer nada mais específico.
Como OpenAI afirmou após o lançamento do GPT-4, há muitas desvantagens para a roupa em revelar mais do que revela. “Dado o cenário competitivo e as implicações de segurança de modelos de grande escala como o GPT-4, este relatório não contém mais detalhes sobre a arquitetura (incluindo tamanho do modelo), {hardware}, computação de treinamento, construção de conjunto de dados, método de treinamento ou comparable.”
O mesmo é verdade para todos os grandes modelos de linguagem atualmente. O chatbot Bard do Google, por exemplo, é baseado no modelo de linguagem LaMDA, que é treinado em conjuntos de dados baseados em conteúdo da Web chamado Infiniset. Mas pouco mais é conhecido sobre isso além do que a equipe de pesquisa do Google escreveu um ano atrás, que é que — em algum momento no passado — incorporou 2,97 bilhões de documentos e 1,12 bilhão de diálogos com 13,39 bilhões de enunciados.
Os reguladores estão lutando com o que fazer. OpenAI – cuja tecnologia em explicit está se espalhando como fogo – já está na mira de um número crescente de países, incluindo a autoridade italiana, que bloqueou o uso do ChatGPT. Os reguladores de dados franceses, alemães, irlandeses e canadenses também estão investigando como ele coleta e usa dados.
Mas, como Margaret Mitchell, uma pesquisadora de IA que anteriormente period co-líder de ética de IA do Google, disse à agência Revisão de tecnologiapode ser quase impossível neste momento para essas empresas identificar os dados dos indivíduos e removê-los de seus modelos.
Conforme explicado pela saída: OpenAI “poderia ter evitado uma dor de cabeça gigante ao criar uma manutenção robusta de registros de dados desde o início, [according to Mitchell]. Em vez disso, é comum na indústria de IA construir conjuntos de dados para modelos de IA, coletando an online indiscriminadamente e, em seguida, terceirizando o trabalho de remover duplicatas ou pontos de dados irrelevantes, filtrar coisas indesejadas e corrigir erros de digitação”.
Como salvar uma vida
Que essas empresas de tecnologia possam realmente ter uma compreensão limitada do que está agora em seus modelos é um desafio óbvio para a proposta de “dignidade dos dados” de Lanier, que chama Altman de “colega e amigo” em seu artigo na New Yorker.
Se isso torna isso impossível é algo que só o tempo dirá.
Certamente, há mérito em dar às pessoas a propriedade de seu trabalho, e a frustração com o problema certamente pode crescer à medida que mais partes do mundo são remodeladas com essas novas ferramentas.
Se a OpenAI e outros tinham ou não o direito de raspar toda a Web para alimentar seus algoritmos já está no centro da questão. numerosos e abrangente processos de violação de direitos autorais contra eles.
Mas a chamada dignidade dos dados também pode ajudar muito a preservar a sanidade humana ao longo do tempo, sugere Lanier em seu fascinante artigo para a New Yorker.
Em sua opinião, a renda básica common “equivale a colocar todos no desemprego para preservar a ideia de inteligência synthetic de caixa preta”. Enquanto isso, acabar com a “natureza de caixa preta de nossos atuais modelos de IA” facilitaria a contabilização das contribuições das pessoas – tornando-as muito mais propensas a continuar fazendo contribuições.
É importante ressaltar que, acrescenta Lanier, também pode ajudar a “estabelecer uma nova classe criativa em vez de uma nova classe dependente”. E de qual você preferiria fazer parte?