O que a inteligência artificial pode realmente fazer hoje
O que a inteligência artificial pode realmente fazer hoje
Anonim

Alerta de spoiler: Ainda falta muito para a revolta das máquinas.

O que a inteligência artificial pode realmente fazer hoje
O que a inteligência artificial pode realmente fazer hoje

Quando Elon Musk apresenta o robô humanóide Tesla Bot, parece que uma nova revolução científica está chegando. Um pouco mais - e a inteligência artificial (IA) ultrapassará os humanos e as máquinas nos substituirão no trabalho. No entanto, pede-se aos professores Gary Marcus e Ernest Davis, ambos renomados especialistas em IA, que não se precipitem em tais conclusões.

Em Artificial Intelligence Reboot, os pesquisadores explicam por que a tecnologia moderna está longe do ideal. Com a permissão da editora "Alpina PRO" Lifehacker publica um trecho do primeiro capítulo.

Nesse ponto, existe uma grande lacuna - um verdadeiro abismo - entre nossa ambição e a realidade da inteligência artificial. Esse abismo surgiu devido à falta de solução de três problemas específicos, cada um dos quais deve ser tratado honestamente.

A primeira delas é o que chamamos de credulidade, que se baseia no fato de que nós, humanos, não aprendemos realmente a distinguir entre humanos e máquinas, e isso torna mais fácil nos enganar. Atribuímos inteligência aos computadores porque nós mesmos evoluímos e vivemos entre pessoas que em grande parte baseiam suas ações em abstrações, como idéias, crenças e desejos. O comportamento das máquinas costuma ser superficialmente semelhante ao comportamento dos humanos, por isso atribuímos rapidamente às máquinas o mesmo tipo de mecanismo básico, mesmo que as máquinas não os tenham.

Não podemos deixar de pensar nas máquinas em termos cognitivos (“Meu computador acha que excluí meu arquivo”), não importa quão simples sejam as regras que as máquinas realmente sigam. Mas as conclusões que se justificam quando aplicadas a humanos podem estar completamente erradas quando aplicadas a programas de inteligência artificial. Em deferência a um princípio básico da psicologia social, chamamos isso de erro de validade fundamental.

Um dos primeiros exemplos desse erro ocorreu em meados da década de 1960, quando um chatbot chamado Eliza convenceu algumas pessoas de que ele realmente entendia as coisas que elas estavam dizendo a ele. Na verdade, Eliza apenas pegou palavras-chave, repetiu a última coisa que a pessoa disse a ela e, em uma situação sem saída, ela recorreu a truques de conversação padrão como "Conte-me sobre sua infância." Se você mencionasse sua mãe, ela perguntaria sobre sua família, embora ela não tivesse ideia do que família realmente é ou por que ela é importante para as pessoas. Era apenas um conjunto de truques, não uma demonstração de verdadeira inteligência.

Apesar de Eliza não entender as pessoas em absoluto, muitos usuários se deixavam enganar pelos diálogos com ela. Alguns passaram horas digitando frases no teclado, conversando assim com Eliza, mas interpretando mal os truques do chatbot, confundindo a fala do papagaio com um conselho ou simpatia útil e sincero.

Joseph Weisenbaum Criador de Eliza.

Pessoas que sabiam muito bem que estavam falando com uma máquina logo esqueceram esse fato, assim como os amantes do teatro põem de lado sua descrença por um tempo e esquecem que a ação que testemunham não tem o direito de ser chamada de real.

Os interlocutores de Eliza muitas vezes exigiam permissão para uma conversa privada com o sistema e depois da conversa insistiam, apesar de todas as minhas explicações, que a máquina realmente os entendia.

Em outros casos, o erro na avaliação da autenticidade pode ser fatal no sentido literal da palavra. Em 2016, um proprietário de um carro Tesla automatizado confiou tanto na aparente segurança do modo de piloto automático que (de acordo com as histórias) ele mergulhou completamente em assistir os filmes de Harry Potter, deixando o carro fazer tudo sozinho.

Tudo correu bem - até que em algum momento piorou. Tendo dirigido centenas ou mesmo milhares de quilômetros sem acidente, o carro colidiu (em todos os sentidos da palavra) com um obstáculo inesperado: um caminhão branco cruzou a rodovia, e Tesla correu para baixo do trailer, matando o proprietário do carro no local. (O carro parecia alertar o motorista várias vezes para assumir o controle, mas o motorista parecia muito relaxado para reagir rapidamente.)

A moral desta história é clara: o fato de que um dispositivo pode parecer "inteligente" por um momento ou dois (e até seis meses) não significa de forma alguma que seja realmente assim ou que possa lidar com todas as circunstâncias em que uma pessoa reagiria adequadamente.

O segundo problema que chamamos de ilusão de progresso rápido: confundir progresso em inteligência artificial, associado à solução de problemas fáceis, com progresso, associado à solução de problemas realmente difíceis. Isso, por exemplo, aconteceu com o sistema IBM Watson: seu progresso no jogo Jeopardy! parecia muito promissor, mas na verdade o sistema acabou ficando muito mais longe de compreender a linguagem humana do que os desenvolvedores haviam previsto.

É possível que o programa AlphaGo da DeepMind siga o mesmo caminho. O jogo go, como o xadrez, é um jogo de informação idealizado onde ambos os jogadores podem ver todo o tabuleiro a qualquer momento e calcular as consequências dos movimentos pela força bruta.

Na maioria dos casos, na vida real, ninguém sabe nada com certeza absoluta; nossos dados costumam estar incompletos ou distorcidos.

Mesmo nos casos mais simples, há muita incerteza. Quando decidimos ir ao médico a pé ou de metrô (já que o dia está nublado), não sabemos exatamente quanto tempo vai demorar para esperar o trem do metrô, se o trem fica preso na estrada, se entraremos na carruagem como arenque em um barril ou nos molharemos na chuva lá fora, sem ousar pegar o metrô e como o médico reagirá ao nosso atraso.

Trabalhamos sempre com as informações que temos. Jogando Go com ele mesmo milhões de vezes, o sistema DeepMind AlphaGo nunca lidou com a incerteza, ele simplesmente não sabe o que é falta de informação ou sua incompletude e inconsistência, sem falar nas complexidades da interação humana.

Há outro parâmetro que torna os jogos mentais muito diferentes do mundo real, e isso novamente tem a ver com dados. Mesmo jogos complexos (se as regras forem estritas o suficiente) podem ser modelados quase perfeitamente, de modo que os sistemas de inteligência artificial que os jogam podem coletar facilmente as enormes quantidades de dados de que precisam para treinar. Assim, no caso do Go, uma máquina pode simular um jogo com pessoas simplesmente jogando contra si mesma; mesmo se o sistema precisar de terabytes de dados, ele próprio os criará.

Os programadores podem, portanto, obter dados de simulação completamente limpos com pouco ou nenhum custo. Ao contrário, no mundo real, dados perfeitamente limpos não existem, é impossível simulá-los (uma vez que as regras do jogo estão mudando constantemente), e ainda mais difícil é coletar muitos gigabytes de dados relevantes por teste e erro.

Na realidade, temos apenas algumas tentativas de testar estratégias diferentes.

Não podemos, por exemplo, repetir uma consulta ao médico 10 milhões de vezes, ajustando gradativamente os parâmetros de decisão antes de cada consulta, de forma a melhorar drasticamente o nosso comportamento em termos de escolha de transporte.

Se os programadores quiserem treinar um robô para ajudar os idosos (digamos, para ajudar a colocar pessoas doentes na cama), cada bit de dados valerá dinheiro real e tempo humano real; não há como coletar todos os dados necessários usando jogos de simulação. Mesmo os bonecos de teste de colisão não podem substituir pessoas reais.

É necessário coletar dados de idosos reais com diferentes características de movimentos senis, em diferentes tipos de camas, diferentes tipos de pijamas, diferentes tipos de casas, e aqui você não pode cometer erros, porque derrubar uma pessoa mesmo à distância de vários centímetros da cama seria um desastre. Neste caso, está em jogo um certo progresso (até agora o mais elementar) nesta área que foi alcançado usando os métodos da estreita inteligência artificial. Foram desenvolvidos sistemas informáticos que jogam quase ao nível dos melhores jogadores humanos nos videojogos Dota 2 e Starcraft 2, onde a qualquer momento apenas parte do mundo do jogo é mostrada aos participantes e, assim, cada jogador enfrenta o problema de falta de informação - que com a mão leve de Clausewitz é chamado de "névoa do desconhecido". No entanto, os sistemas desenvolvidos ainda permanecem muito estreitamente focados e instáveis em operação. Por exemplo, o programa AlphaStar que joga em Starcraft 2 aprendeu apenas uma raça específica de uma grande variedade de personagens, e quase nenhum desses desenvolvimentos é jogável como qualquer outra raça. E, é claro, não há razão para acreditar que os métodos usados nesses programas sejam adequados para fazer generalizações bem-sucedidas em situações muito mais complexas da vida real. vidas reais. Como a IBM descobriu não uma, mas já duas vezes (primeiro no xadrez e depois no Jeopardy!), O sucesso nos problemas de um mundo fechado não garante de forma alguma o sucesso em um mundo aberto.

O terceiro círculo do abismo descrito é uma superestimativa da confiabilidade. Repetidamente, vemos que assim que as pessoas com a ajuda da inteligência artificial encontram uma solução para algum problema que pode funcionar sem falhas por um tempo, elas automaticamente assumem que com a revisão (e com uma quantidade um pouco maior de dados) tudo funcionará de forma confiável. Mas esse não é necessariamente o caso.

Levamos novamente carros sem motoristas. É relativamente fácil criar uma demonstração de um veículo autônomo que conduzirá corretamente ao longo de uma pista claramente marcada em uma estrada calma; no entanto, as pessoas têm sido capazes de fazer isso por mais de um século. No entanto, é muito mais difícil fazer esses sistemas funcionarem em circunstâncias difíceis ou inesperadas.

Como Missy Cummings, diretora do Laboratório de Humans and Autonomy da Duke University (e ex-piloto de caça da Marinha dos Estados Unidos), nos disse em um e-mail, a questão não é quantos quilômetros um carro sem motorista pode viajar sem um acidente, mas até que ponto ao qual esses carros são capazes de se adaptar a situações de mudança. De acordo com sua Missy Cummings, e-mail para os autores em 22 de setembro de 2018., os veículos semi-autônomos modernos "geralmente operam apenas em uma faixa muito estreita de condições, o que não diz nada sobre como eles podem operar em condições aquém das ideais."

Parecer completamente confiável em milhões de milhas de teste em Phoenix não significa ter um bom desempenho durante as monções em Bombaim.

Essa diferença fundamental entre como os veículos autônomos se comportam em condições ideais (como dias de sol em estradas suburbanas com várias faixas) e o que eles podem fazer em condições extremas pode facilmente se tornar uma questão de sucesso ou fracasso para toda uma indústria.

Com tão pouca ênfase na direção autônoma em condições extremas e que a metodologia atual não evoluiu no sentido de garantir que o piloto automático funcione corretamente em condições que estão apenas começando a ser consideradas reais, em breve poderá ficar claro que bilhões de dólares foram gastos em métodos de construção de carros autônomos que simplesmente falham em oferecer confiabilidade de direção semelhante à humana. É possível que, para atingir o nível de confiança técnica de que necessitamos, sejam necessárias abordagens fundamentalmente diferentes das atuais.

E os carros são apenas um exemplo de muitos outros semelhantes. Nas pesquisas modernas sobre inteligência artificial, sua confiabilidade foi subestimada globalmente. Em parte, isso se deve ao fato de a maioria dos desenvolvimentos atuais nessa área envolver problemas altamente tolerantes a erros, como a recomendação de anúncios ou a promoção de novos produtos.

Na verdade, se recomendarmos cinco tipos de produtos e você gostar apenas de três deles, nenhum dano acontecerá. Mas em uma série de aplicações críticas de IA para o futuro, incluindo carros sem motorista, cuidados para idosos e planejamento de saúde, a confiabilidade humana será crítica.

Ninguém vai comprar um robô doméstico que possa carregar com segurança seu avô idoso para a cama apenas quatro em cinco vezes.

Mesmo nas tarefas em que a inteligência artificial moderna deveria teoricamente aparecer da melhor maneira possível, falhas graves ocorrem regularmente, às vezes parecendo muito engraçadas. Um exemplo típico: os computadores, em princípio, já aprenderam muito bem como reconhecer o que está (ou está acontecendo) nesta ou naquela imagem.

Às vezes, esses algoritmos funcionam muito bem, mas muitas vezes eles produzem erros completamente incríveis. Se você mostrar uma imagem a um sistema automatizado que gera legendas para fotos de cenas cotidianas, geralmente obtém uma resposta que é notavelmente semelhante ao que um humano escreveria; por exemplo, para a cena abaixo, onde um grupo de pessoas está jogando frisbee, o sistema de geração de legendas altamente divulgado do Google fornece exatamente o nome correto.

Fig 1.1. Grupo de jovens jogando frisbee (legenda da foto plausível, gerada automaticamente pela IA)
Fig 1.1. Grupo de jovens jogando frisbee (legenda da foto plausível, gerada automaticamente pela IA)

Mas cinco minutos depois, você pode facilmente obter uma resposta absolutamente absurda do mesmo sistema, como aconteceu, por exemplo, com esta placa de sinalização, na qual alguém colou adesivos: o computador chamado Os criadores do sistema não explicaram por que esse erro ocorreu, mas esses casos não são incomuns. Podemos supor que o sistema, neste caso específico, classificou (talvez em termos de cor e textura) a fotografia como semelhante às outras imagens (com as quais aprendeu) rotuladas como "uma geladeira cheia de muita comida e bebida". Naturalmente, o computador não entendeu (o que uma pessoa poderia facilmente entender) que tal inscrição seria apropriada apenas no caso de uma grande caixa de metal retangular com vários (e mesmo assim nem todos) objetos dentro. esta cena é "uma geladeira com muita comida e bebida".

Arroz. 1.2. Geladeira cheia de comidas e bebidas (título totalmente implausível, criado pelo mesmo sistema acima)
Arroz. 1.2. Geladeira cheia de comidas e bebidas (título totalmente implausível, criado pelo mesmo sistema acima)

Da mesma forma, carros sem motorista freqüentemente identificam corretamente o que “vêem”, mas às vezes eles parecem ignorar o óbvio, como no caso do Tesla, que regularmente colidia com caminhões de bombeiros estacionados ou ambulâncias no piloto automático. Pontos cegos como esses podem ser ainda mais perigosos se estiverem localizados em sistemas que controlam redes de energia ou são responsáveis pelo monitoramento da saúde pública.

Para preencher a lacuna entre a ambição e as realidades da inteligência artificial, precisamos de três coisas: uma consciência clara dos valores em jogo neste jogo, uma compreensão clara de por que os sistemas modernos de IA não executam suas funções de forma confiável o suficiente e, finalmente, um novo pensamento de máquina de estratégia de desenvolvimento.

Uma vez que as apostas na inteligência artificial são realmente altas em termos de empregos, segurança e estrutura da sociedade, há uma necessidade urgente de que todos nós - profissionais de IA, profissões relacionadas, cidadãos comuns e políticos - entendamos a verdadeira situação neste campo, a fim de aprender a avaliar criticamente o nível e a natureza do desenvolvimento da inteligência artificial de hoje.

Assim como é importante para os cidadãos interessados em notícias e estatísticas entender como é fácil enganar as pessoas com palavras e números, aqui está um aspecto cada vez mais significativo de compreensão para que possamos descobrir onde está a inteligência artificial. Apenas publicidade, mas onde é real; o que ele é capaz de fazer agora, e o que ele não sabe e, talvez, não aprenderá.

O mais importante é perceber que inteligência artificial não é mágica, mas apenas um conjunto de técnicas e algoritmos, cada um com seus pontos fortes e fracos, é adequado para algumas tarefas e não é adequado para outras. Um dos principais motivos pelos quais nos propusemos a escrever este livro é que muito do que lemos sobre inteligência artificial nos parece uma fantasia absoluta, surgindo de uma confiança infundada no poder quase mágico da inteligência artificial.

Enquanto isso, essa ficção não tem nada a ver com as capacidades tecnológicas modernas. Infelizmente, a discussão sobre IA entre o público em geral foi e é fortemente influenciada por especulação e exagero: a maioria das pessoas não tem ideia de como é difícil criar inteligência artificial universal.

Vamos esclarecer uma discussão mais aprofundada. Embora o esclarecimento das realidades associadas à IA exija sérias críticas de nossa parte, não somos, de forma alguma, oponentes da inteligência artificial, realmente gostamos deste lado do progresso tecnológico. Vivemos parte significativa de nossa vida como profissionais da área e queremos que ela se desenvolva o mais rápido possível.

O filósofo americano Hubert Dreyfus escreveu certa vez um livro sobre quais alturas, em sua opinião, a inteligência artificial nunca pode alcançar. Não é disso que trata este livro. Ele se concentra em parte no que a IA não pode fazer atualmente e por que é importante entendê-lo, mas uma parte significativa dele fala sobre o que poderia ser feito para melhorar o pensamento do computador e estendê-lo a áreas onde agora ele tem dificuldade de fazer primeiro.

Não queremos que a inteligência artificial desapareça; queremos que ele melhore, além do mais, radicalmente, para que possamos realmente contar com ele e resolver com sua ajuda os muitos problemas da humanidade. Temos muitas críticas sobre o estado atual da inteligência artificial, mas nossa crítica é uma manifestação de amor pela ciência que fazemos, não um chamado para desistir e abandonar tudo.

Em suma, acreditamos que a inteligência artificial pode realmente transformar seriamente o nosso mundo; mas também acreditamos que muitas das suposições básicas sobre IA devem mudar antes que possamos falar sobre o progresso real. Nossa proposta de "redefinição" da inteligência artificial não é de forma alguma um motivo para encerrar a pesquisa (embora alguns possam entender nosso livro exatamente com esse espírito), mas sim um diagnóstico: onde estamos presos agora e como saímos de situação de hoje.

Acreditamos que a melhor maneira de avançar pode ser olhando para dentro, encarando a estrutura de nossa própria mente.

Máquinas verdadeiramente inteligentes não precisam ser réplicas exatas de humanos, mas qualquer um que olhe para a inteligência artificial honestamente verá que ainda há muito a aprender com os humanos, especialmente com crianças pequenas, que são em muitos aspectos muito superiores às máquinas em sua capacidade de absorver e compreender novos conceitos.

Os cientistas médicos muitas vezes caracterizam os computadores como sistemas "sobre-humanos" (de uma forma ou de outra), mas o cérebro humano ainda é muito superior aos seus homólogos de silício em pelo menos cinco aspectos: podemos compreender a linguagem, podemos compreender o mundo, podemos com flexibilidade adaptando-nos a novas circunstâncias, podemos aprender coisas novas rapidamente (mesmo sem grandes quantidades de dados) e podemos raciocinar diante de informações incompletas e até conflitantes. Em todas essas frentes, os sistemas modernos de inteligência artificial estão irremediavelmente atrás dos humanos.

Reinicialização de inteligência artificial
Reinicialização de inteligência artificial

Inteligência Artificial: Reboot interessará as pessoas que desejam entender as tecnologias modernas e entender como e quando uma nova geração de IA pode tornar nossas vidas melhores.

Recomendado: