Calma! É improvável que tenhamos tão cedo uma inteligência artificial com capacidade humana 3k21t
Os titãs da tecnologia afirmam que a inteligência artificial logo igualará os poderes do cérebro humano. Será que eles estão nos subestimando? 203d4u
Sam Altman, CEO da OpenAI, disse recentemente ao presidente Trump, durante uma ligação telefônica particular, que a inteligência artificial (IA) geral chegaria antes do final de seu governo — ou seja, sistemas com capacidade humana chegariam nos próximos três anos. Dario Amodei, CEO da Anthropic, principal rival da OpenAI, disse várias vezes a podcasters que isso poderia acontecer ainda mais cedo. O bilionário do setor de tecnologia, Elon Musk, disse que ela poderia chegar antes do final deste ano. f4dl
Como muitas outras vozes do Vale do Silício e de outros lugares, esses executivos preveem que a chegada da inteligência artificial geral (AGI, na sigla em inglês) é iminente.
Desde o início dos anos 2000, quando um grupo de pesquisadores marginais colocou o termo na capa de um livro que descrevia os sistemas de computador autônomos que eles esperavam construir um dia, a AGI tem servido como uma abreviação para uma tecnologia futura que alcança inteligência de nível humano. Não há uma definição estabelecida de AGI, apenas uma ideia fascinante: uma inteligência artificial que pode se igualar aos muitos poderes da mente humana.
Altman, Amodei e Musk, há muito tempo perseguem esse objetivo, assim como os executivos e pesquisadores de empresas como Google e Microsoft. E graças, em parte, à sua fervorosa busca por essa ideia ambiciosa, eles produziram tecnologias que estão mudando a maneira como centenas de milhões de pessoas pesquisam, fazem arte e programam computadores. Essas tecnologias estão agora prontas para transformar profissões inteiras.
Mas desde a chegada dos chatbots, como o ChatGPT, da OpenAI, e o rápido aprimoramento desses sistemas estranhos e poderosos nos últimos dois anos, muitos tecnólogos têm se tornado cada vez mais ousados ao prever a chegada da AGI para muito breve. Alguns estão até dizendo que, uma vez entregue a AGI, uma criação mais poderosa chamada "superinteligência" virá em seguida.
Como essas vozes eternamente confiantes preveem o futuro próximo, suas especulações estão se adiantando à realidade. E, embora suas empresas estejam impulsionando a tecnologia em um ritmo notável, um exército de vozes mais sóbrias é rápido em dissipar qualquer alegação de que as máquinas logo se equipararão ao intelecto humano.
"A tecnologia que estamos construindo hoje não é suficiente para chegarmos lá", disse Nick Frosst, fundador da startup de IA Cohere, que trabalhou anteriormente como pesquisador no Google e estudou com o mais reverenciado pesquisador de IA dos últimos 50 anos. "O que estamos construindo agora são coisas que recebem palavras e preveem a próxima palavra mais provável, ou recebem pixels e preveem o próximo pixel mais provável. Isso é muito diferente do que você e eu fazemos."
Em uma pesquisa recente da Association for the Advancement of Artificial Intelligence (Associação para o Avanço da Inteligência Artificial), uma sociedade acadêmica com 40 anos de existência que inclui alguns dos mais respeitados pesquisadores da área, mais de três quartos dos entrevistados disseram que os métodos usados para construir a tecnologia atual provavelmente não levariam à IAG.
As opiniões divergem, em parte, porque os cientistas não conseguem sequer chegar a um acordo sobre uma forma de definir a inteligência humana, discutindo incessantemente sobre os méritos e as falhas dos testes de QI e outros parâmetros de referência. Comparar nossos próprios cérebros com os das máquinas é ainda mais subjetivo. Isso significa que identificar a AGI é essencialmente uma questão de opinião.
No ano ado, como parte de um processo judicial, os advogados de Musk disseram que ela já existia porque a OpenAI, uma das principais rivais do de Musk, assinou um contrato com seu principal financiador dizendo que não venderá produtos baseados na tecnologia de AGI.
E os cientistas não têm nenhuma evidência concreta de que as tecnologias atuais sejam capazes de realizar até mesmo algumas das coisas mais simples que o cérebro pode fazer, como reconhecer a ironia ou sentir empatia. As alegações da chegada iminente da AGI baseiam-se em extrapolações estatísticas - e em um pensamento positivo.
De acordo com vários testes de referência, as tecnologias atuais estão melhorando em um ritmo consistente em algumas áreas notáveis, como matemática e programação de computadores. Mas esses testes descrevem apenas uma pequena parte do que as pessoas podem fazer.
Os seres humanos sabem como lidar com um mundo caótico e em constante mudança. As máquinas lutam para dominar o inesperado - os desafios, tanto pequenos quanto grandes, que não se parecem com o que aconteceu no ado. Os seres humanos podem ter ideias que o mundo nunca viu. As máquinas geralmente repetem ou aprimoram o que já viram antes.
É por isso que Frosst e outros céticos dizem que para levar as máquinas ao nível de inteligência humana será necessário ter pelo menos uma grande ideia que os tecnólogos do mundo ainda não tenham sonhado. Não há como saber quanto tempo isso levará.
"Um sistema que é melhor do que os humanos em um aspecto não será necessariamente melhor em outros aspectos", disse o cientista cognitivo de Harvard, Steven Pinker. "Simplesmente não existe um solucionador automático, onisciente e onipotente de todos os problemas, inclusive daqueles em que ainda nem pensamos. Há uma tentação de se envolver em um tipo de pensamento mágico. Mas esses sistemas não são milagres. São aparelhos muito impressionantes".
'A IA pode chegar lá' 2c3t6o
Os chatbots, como o ChatGPT, são acionados pelo que os cientistas chamam de redes neurais, sistemas matemáticos que podem identificar padrões em textos, imagens e sons. Ao identificar padrões em grandes quantidades de artigos da Wikipédia, notícias e registros de bate-papo, por exemplo, esses sistemas podem aprender a gerar textos semelhantes aos humanos por conta própria, como poemas e programas de computador.
Isso significa que esses sistemas estão progredindo muito mais rapidamente do que as tecnologias de computador do ado. Nas décadas anteriores, os engenheiros de software criavam aplicativos com uma linha de código por vez, um processo minúsculo, o a o, que nunca poderia produzir algo tão poderoso quanto o ChatGPT. Como as redes neurais podem aprender com os dados, elas podem alcançar novos patamares e alcançá-los rapidamente.
Depois de observar o aprimoramento desses sistemas na última década, alguns tecnólogos acreditam que o progresso continuará praticamente no mesmo ritmo - até a AGI ou além.
"Há todas essas tendências em que todas as limitações estão desaparecendo", disse Jared Kaplan, diretor de ciências da Anthropic. "A inteligência da IA é bem diferente da inteligência humana. Os seres humanos aprendem muito mais facilmente a realizar novas tarefas. Eles não precisam praticar tanto quanto a IA. Mas, eventualmente, com mais prática, a IA pode chegar lá."
Entre os pesquisadores de IA, Kaplan é conhecido por ter publicado um artigo acadêmico inovador que descreveu o que hoje é chamado de "Leis de Escalonamento". Essas leis dizem basicamente o seguinte: quanto mais dados um sistema de IA analisar, melhor será seu desempenho. Da mesma forma que um aluno aprende mais lendo mais livros, um sistema de IA encontra mais padrões no texto e aprende a imitar com mais precisão a maneira como as pessoas juntam as palavras.
Nos últimos meses, empresas como a OpenAI e a Anthropic usaram praticamente todo o texto em inglês da internet, o que significa que precisavam de uma nova maneira de aprimorar seus chatbots. Por isso, elas estão se apoiando mais em uma técnica que os cientistas chamam de aprendizado por reforço. Por meio desse processo, que pode se estender por semanas ou meses, um sistema pode aprender o comportamento por tentativa e erro. Ao trabalhar com milhares de problemas de matemática, por exemplo, ele pode aprender quais técnicas tendem a levar à resposta certa e quais não.
Graças a essa técnica, pesquisadores como Kaplan acreditam que as Leis de Escalonamento (ou algo parecido com elas) continuarão. Como a tecnologia continua a aprender por tentativa e erro em inúmeros campos, dizem os pesquisadores, ela seguirá o caminho do AlphaGo, uma máquina criada em 2016 por uma equipe de pesquisadores do Google.
Por meio do aprendizado por reforço, o AlphaGo aprendeu a dominar o jogo Go, um complexo jogo de tabuleiro chinês que é comparado ao xadrez, jogando milhões de partidas contra si mesmo. Naquele ano, ele venceu um dos melhores jogadores do planeta, surpreendendo a comunidade de IA e o mundo. A maioria dos pesquisadores supunha que a IA precisaria de mais 10 anos para realizar tal façanha.
O AlphaGo jogou de uma forma que nenhum ser humano jamais fez, ensinando aos melhores jogadores novas abordagens estratégicas para esse jogo antigo. Para alguns, a crença é que sistemas como o ChatGPT darão o mesmo salto, alcançando a AGI e, em seguida, a superinteligência.
Mas jogos como o AlphaGo seguem um conjunto pequeno e limitado de regras. O mundo real é limitado apenas pelas leis da física. A modelagem da totalidade do mundo real está muito além das máquinas atuais, portanto, como alguém pode ter certeza de que a AGI. - e muito menos a superinteligência - está logo ali na esquina?
A diferença entre humanos e máquinas 4i115i
É indiscutível que as máquinas atuais já eclipsaram o cérebro humano em alguns aspectos, mas isso já é verdade há muito tempo. Uma calculadora pode fazer cálculos básicos mais rapidamente do que um ser humano. Chatbots como o ChatGPT podem escrever mais rápido e, enquanto escrevem, podem desenhar instantaneamente mais textos do que qualquer cérebro humano poderia ler ou lembrar. Esses sistemas estão superando o desempenho humano em alguns testes que envolvem matemática e codificação de alto nível.
Mas as pessoas não podem ser reduzidas a esses padrões de referência. "Há muitos tipos de inteligência no mundo natural", disse Josh Tenenbaum, professor de ciência cognitiva computacional no Instituto de Tecnologia de Massachusetts.
Uma diferença óbvia é que a inteligência humana está ligada ao mundo físico. Ela vai além das palavras, dos números, dos sons e das imagens, abrangendo o reino das mesas, das cadeiras, dos fogões, das frigideiras, dos edifícios, dos carros e de tudo o mais que encontramos a cada dia. Parte da inteligência é saber quando virar uma panqueca que está na frigideira.
Algumas empresas já estão treinando robôs humanoides da mesma forma que outras estão treinando chatbots. Mas isso é mais difícil e consome mais tempo do que criar o ChatGPT, exigindo treinamento extensivo em laboratórios físicos, depósitos e residências. A pesquisa robótica está anos atrás da pesquisa de chatbots.
A distância entre humanos e máquinas é ainda maior. Tanto no domínio físico quanto no digital, as máquinas ainda lutam para igualar as partes da inteligência humana que são mais difíceis de definir.
A nova maneira de criar chatbots, o aprendizado por reforço, está funcionando bem em áreas como matemática e programação de computadores, onde as empresas podem definir claramente o bom e o mau comportamento. Os problemas de matemática têm respostas inegáveis. Os programas de computador devem ser compilados e executados. Mas a técnica não funciona tão bem com redação criativa, filosofia ou ética.
Altman escreveu recentemente no X que a OpenAI havia treinado um novo sistema que era "bom em escrita criativa". Foi a primeira vez, acrescentou ele, que "fiquei realmente impressionado com algo escrito pela IA". Escrever é o que esses sistemas fazem de melhor. Mas a "escrita criativa" é difícil de medir. Ela assume diferentes formas em diferentes situações e apresenta características que não são fáceis de explicar, muito menos de quantificar: sinceridade, humor, honestidade.
À medida que esses sistemas são implantados no mundo, os seres humanos lhes dizem o que fazer e os orientam em momentos de novidade, mudança e incerteza.
"A IA precisa de nós: seres vivos, produzindo constantemente, alimentando a máquina", disse Matteo Pasquinelli, professor de filosofia da ciência na Universidade Ca' Foscari, em Veneza. "Ela precisa da originalidade de nossas ideias e de nossas vidas."
Uma fantasia emocionante 724036
Para as pessoas do setor de tecnologia e de fora dele, as alegações de uma AGI iminente podem ser emocionantes. Os seres humanos sonham em criar uma inteligência artificial desde o mito do Golem, que surgiu já no século XII. Essa é a fantasia que impulsiona obras como "Frankenstein", de Mary Shelley, e "2001: Uma Odisseia no Espaço", de Stanley Kubrick.
Agora que muitos de nós estamos usando sistemas de computador que podem escrever e até mesmo falar como nós, é natural que presumamos que as máquinas inteligentes estão quase chegando. É o que temos previsto há séculos.
Quando um grupo de acadêmicos fundou a área de IA, no final da década de 1950, eles tinham certeza de que não demoraria muito para construir computadores que recriassem o cérebro. Alguns argumentaram que uma máquina venceria o campeão mundial de xadrez e descobriria seu próprio teorema matemático em uma década. Mas nada disso aconteceu nesse período. Algumas coisas ainda não aconteceram.
Muitas das pessoas que estão construindo a tecnologia atual se veem cumprindo uma espécie de destino tecnológico, avançando em direção a um momento científico inevitável, como a criação do fogo ou da bomba atômica. Mas elas não conseguem apontar uma razão científica para que isso aconteça em breve.
É por isso que muitos outros cientistas dizem que ninguém chegará à AGI sem uma nova ideia - algo além das poderosas redes neurais que simplesmente encontram padrões nos dados. Essa nova ideia pode chegar amanhã. Mas, mesmo assim, o setor precisaria de anos para desenvolvê-la.
Yann LeCun, cientista-chefe de IA da Meta, sonhava em criar o que hoje chamamos de AGI desde que assistiu a "2001: Uma Odisseia no Espaço" em Cinerama de 70 milímetros em um cinema de Paris, quando tinha 9 anos de idade. E ele estava entre os três pioneiros que ganharam o Prêmio Turing de 2018 - considerado o Prêmio Nobel da computação - por seu trabalho inicial em redes neurais. Mas ele não acredita que a AGI esteja próxima.
Na Meta, seu laboratório de pesquisa está olhando além das redes neurais que encantaram o setor de tecnologia. LeCun e seus colegas estão procurando a ideia que falta. "Muito depende de descobrir se a arquitetura da próxima geração fornecerá IA. de nível humano nos próximos 10 anos", disse ele. "Pode ser que não. Neste momento, não temos como saber."
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
