Guia de Leitura | “A revolução da inteligência artificial”, de Tim Urban

Você já notou que vivemos cada vez mais integrados às tecnologias e hoje é difícil viver sem elas? Notou que, além de computadores e celulares, hoje existem mais pessoas que usam em seus corpos marcapassos, placas de titânio e próteses mecânicas? Aposto que sim.

Certamente, o que talvez você ainda não notou é que a partir do momento em que integramos as tecnologias aos nossos corpos poderemos estar criando uma nova espécie de hominídeo, o pós-humano; poderemos ser controlados externamente por governos ou por hackers; e o pior, poderemos estar dando início ao fim da nossa espécie.

No post de hoje, vou resenhar um artigo longuíssimo de Tim Urban, intitulado “A revolução da inteligência artificial”, que foi escrito originalmente em inglês, e trata dessas coisas. Sem querer ser ingênuo, como os tecnofílicos, nem catastrófico, como os tecnofóbicos, a minha intenção é divulgar um assunto que possui grandes repercussões para quem estuda a chamada “sociedade de controle”.

E eu confesso que  me surpreendi (e me preocupei!) com o nosso futuro.

A “Lei dos Retornos Acelerados” e o crescimento exponencial das tecnologias

Para início de conversa, a primeira coisa que temos que saber é que a história não é linear; na verdade ela é formada por avanços e retrocessos. E, no que atina ao progresso tecnológico, ela opera por saltos, em curvas exponenciais, e não como se estivesse em uma estrada contínua. Vejam o gráfico (1) abaixo.

Gráfico 1.

1

Calma. Apesar dele parecer capenga (e ele é), a coisa menos importante não é a sua precisão, mas sim a ideia que ele quer transmitir. No gráfico nos vemos numa situação muito privilegiada, pois somos contemporâneos de um momento em que o progresso humano crescerá de forma exponencial.

E essa sensação é muito boa!

Só há um problema neste gráfico: ele não existe no mundo real, pois não é assim que a vida funciona. O gráfico real é esse aqui:

Gráfico 2.

2

Isto porque na vida real não sabemos o que está na direita do gráfico e, na prática, mesmo as revoluções sociais parecem ser, aos que são seus contemporâneos, experiências comuns, cotidianas.

Uma primeira coisa que chama atenção na revolução da inteligência artificial, e que é fundamental para entender este tema, é o que o futurista Ray Kurzweil chama de “Lei dos Retornos Acelerados”. Esta “lei” diz que quanto mais atrasada tecnologicamente é uma sociedade mais linear é a sua história; em raciocínio inverso, as sociedades mais avançadas tenderiam a progredir em um ritmo mais veloz, exponencial. Esta é a ideia dos “retornos acelerados”: quando mais avançada é uma sociedade mais rápido são os seus avanços.

1Para entender esta “lei”, porém, é preciso entender uma outra coisinha, que é a “taxa média de progresso”. A ideia é que quanto mais avançada a sociedade mais alta é a sua taxa de progresso.

Segundo Kurzweil, a taxa média de progresso do século XX foi 5 vezes menor que a taxa média da década de 2000, o que sugere que se tivéssemos tido no século XX a taxa média dos anos 2000 levaríamos apenas 20 anos para alcançar todo o progresso que obtivemos no século XX. Kurzweil acredita que entre 2000 e 2014 tivemos uma taxa média de progresso equivalente à do século XX e que até 2021 vamos ter outra taxa semelhante.

Isso parece confuso, não é? O que esse tal de Kurzweil está dizendo? É simples: ele está dizendo que levamos 100 anos para obter uma determinada taxa média de crescimento (século XX), que podemos chamar de T1. E que momentos depois (2000-2010) levamos 10 anos para obter essa mesma taxa média (T1). E que de 2014 até 2021, ou seja, em 7 anos alcançaremos a taxa (T1)… E isso cresce exponencialmente, de modo que dentro de algumas décadas poderemos levar meses para obter uma taxa média de progresso equivalente à do século XX (T1). Kurzweil acredita que o século XXI terá 1000 vezes o progresso do século XX!

Assim, como não devemos pensar a história de forma linear, mas sim de forma exponencial, se você quiser prever os próximos 30 anos não deve olhar para os 30 anos anteriores, mas sim pegar a atual taxa média de progresso e fazer previsões a partir desta referência.

E mesmo assim a sua precisão será horrível! E a razão é simples: a taxa de progresso do futuro é ainda maior do que a de hoje e isso não é muito fácil de ser calculado.

Vejam o gráfico (3) abaixo como as previsões podem ser diferentes a depender da referência que seguimos.

Gráfico 3.

3

A linha vermelha é a baseada na taxa média de progresso do passado. A linha laranja é baseada na taxa de hoje. O círculo azul representa o momento exato em que estamos vivendo, que julgamos ser algo linear. Por fim, a linha verde representa o crescimento repentino e exponencial, similar ao que aconteceu na revolução industrial ou na revolução digital.

Mas é claro que o crescimento exponencial não é sempre tão radical assim. Kurzweil explica que ele se assemelha a “curvas em S”, como vemos no gráfico (4) abaixo. Inicialmente há um crescimento lento, em uma outra fase há o crescimento exponencial, para só depois ter outro nivelamento…

Gráfico 4.

4

Beleza, se você já entendeu a lei dos retornos acelerados e a sua relação com a taxa média de progresso, chegou a hora de lhe explicar o que é a inteligência artificial e lhe mostrar que, embora ela possua vários níveis, os seres humanos só conseguiram chegar ao mais elementar deles.

O que é e quais são os níveis da inteligência artificial

exterminatorDuas coisas vocês têm que saber sobre a inteligência artificial: 1. ela não é algo único e uniforme; e 2. ela não é algo de ficção científica, que vemos apenas em filmes como Star Wars ou o Exterminador do Futuro.

Mas o que ela é, afinal?

Em primeiro lugar, não as confunda com os robôs. Ela não é o Homem Bicentenário. Na verdade, a inteligência artificial é o que há dentro desses robôs: ela é o software e os dados que nem sempre precisam de um corpo, o robô.

E, como eu disse, ela não é uma coisa única; existem pelo menos três grandes níveis de inteligência artificial.

A primeira é a Inteligência Artificial Superficial (ANI, na sigla em inglês, Artificial Narrow Intelligence). Chamada de inteligência artificial fraca, ela é o nível mais básico de inteligência artificial, já que é especializada em apenas uma área. Desta temos várias delas, como o algoritmo do Facebook, que sabe, pelas suas preferências, qual é o seu perfil de amizade; os sistemas de preços de passagens aéreas, que flutuam de acordo com o mercado, com a proximidade da compra e pelo valor simbólico do destino; ou o carro sem motorista do Google, cujos progressos você pode acompanhar aqui.

Esse primeiro nível o homem já dominou completamente. Temos tantas que nem notamos que elas já fazem parte da nossa vida. A maioria delas é super simples, como uma calculadora. Como Aaron Saenz já disse, elas “são como os aminoácidos na atmosfera primitiva do planeta Terra, os elementos inanimados de vida que um dia, inesperadamente, produzem vida”.

A segunda é a Inteligência Artificial Ampla (AGI, na sigla em inglês, Artificial General Intelligence). Chamada de inteligência artificial forte ou de nível humano, essa inteligência artificial poderia ser tão inteligente quanto um ser humano e, neste caso, os substituir em suas atividades, como debater, resolver problemas, aprender a partir da experiência etc.

É óbvio que este segundo nível de inteligência é muito difícil e o homem não conseguiu desenvolvê-la ainda. Isto porque é muito mais simples fazer o computador multiplicar números de dez dígitos em frações de segundo do que fazê-lo diferenciar um cachorro de um gato. O cientista computacional Donald Knuth dizia que a inteligência artificial é profundamente competente em fazer qualquer ato que exija pensar, mas tem extrema dificuldade em fazer atos que para nós são automáticos e fazemos sem parar pra pensar.

Por fim, o terceiro nível é o da superinteligência artificial, que vamos deixar para depois.

Voltando para o nível da inteligência artificial ampla, os cientistas estão quebrando a cabeça para tentar atingi-la. Eles ainda não sabem de muita coisa, mas já começaram a pensar.

primeira coisa que eles sabem é que, para atingir esse nível de I.A. é preciso aumentar absurdamente a sua capacidade computacional para tentar se igualar a um cérebro humano.

Atualmente, já há um computador que tem ampla capacidade: é um computador chinêschina chamado Tianhe-2. O problema é que ele necessita de 720 metros quadrados de espaço e custou 390 milhões de dólares para ser construído. Se queremos desenvolver essa inteligência artificial, teremos que baratear esta tecnologia.

A segunda coisa a fazer é torná-la inteligente. Muuuito inteligente! Basicamente, o que as pesquisas de ponta estão querendo fazer é plagiar o cérebro humano e, a partir de uma engenharia reversa, tentar descobrir como a evolução proporcionou que o cérebro se tornasse essa máquina tão complexa. O objetivo seria induzir a evolução em nosso favor e impedisse que selecionasse formações computacionais piores.

Segundo Tim Urban, autor do artigo que estou resenhando, as pesquisas afirmam que em algum futuro não tão distante (alguns falam de 2030 ou 2040) conseguiremos atingir a Inteligência Artificial Ampla, e é aí que os problemas começam.

Isto porque este segundo nível de inteligência artificial terá a capacidade de “auto-aprimoramento recursivo”, que é a habilidade de, ao chegar em determinado nível, trabalhar para a progressão da sua própria Inteligência.

Como podemos ver no gráfico (5) abaixo, atualmente as inteligências artificiais possuem um nível de complexidade muito inferior ao mais idiota dos seres humanos.

Gráfico 5

5

Mas quando elas chegarem ao nível do ser humano, elas não vão parar por aí e, se a “Lei dos Retornos Acelerados” estiver certa, quando ela chegar ao nosso nível ela não vai demorar a nos ultrapassar (Gráfico 6).

Gráfico 6

6

Mas esses efeitos ainda serão mínimos neste segundo nível de inteligência artificial. Problema mesmo será quando atingirmos a superinteligência.

Superinteligência

bostromAgora, vamos falar do terceiro nível, que é a “Superinteligência Artificial” (ASI, na sigla em inglês, Artificial Superintelligence). Segundo Nick Bostrom, professor de Oxford e um dos principais teóricos da inteligência artificial, a superinteligência artificial seria “um intelecto que é muito mais inteligente que os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais”. Segundo estimativas a superinteligência pode variar de um pouco mais inteligente que o homem até 3 milhões de vezes mais inteligentes.

Ela é a razão pela qual os debates sobre a imortalidade, de um lado, e a extensão do mundo biológico, de outro, causam tanto pânico!

É claro que a essa altura você pode estar me achando viajado demais. Só lhe digo uma coisa: isso pode até parecer incompreensível para nós hoje, principalmente porque estamos acostumados a pensar a inteligência artificial em termos quantitativos, isto é, a máquina teria uma capacidade cognitiva similar à humana, com a diferença de que ela faria tudo muito mais rápido do que nós, como fazem calculadoras, por exemplo.

Na verdade, a verdadeira revolução dar-se-ia em termos qualitativos, o que significa a existência de uma superinteligência incompreensível para nós humanos.

Por exemplo, pensem nos chipanzés. Muito além dos chipanzés não conseguirem fazer arranha-céus ou uma ferramenta personalizada no nível de complexidade que os homens fazem, eles nem imaginam que esse mundo de funções cognitivas existe.

E isso pode acontecer com os humanos em relação às máquinas superinteligentes!

Não há nem como conceber o que elas poderão fazer e quem diz que sabe parece que não entendeu nada do debate em torno das superinteligências artificiais.

Porém, um primeiro passo para imaginar um mundo de superinteligências artificiais seria concebermos que no futuro vão existir máquinas que possuirão a possibilidade de turbinar dramaticamente a evolução. O surgimento da superinteligência é um gatilho que gerará uma explosão que poderá mudar as regras do jogo para todas as coisas vivas, isto é, biológicas. E a questão, segundo os cientistas, não é se vamos acionar este gatilho, mas quando.

Gráfico 7

7

Tudo bem, Ronaldo. Mas me diz aí o que a superinteligência poderia fazer por nós em um cenário otimista? Segundo Nick Bostrom, ela poderia atuar pelo menos de três modos:

  • Como um oráculo, que responde a quase todas as questões propostas com precisão, incluindo questões complexas a que seres humanos não podem facilmente responder, tais como: Como posso produzir um motor veicular mais eficiente?
  • Como um gênio, que executa qualquer comando de alto nível que lhe é dado – Use um montador molecular para construir um novo e mais eficiente motor veicular – e depois espera pelo próximo comando.
  • abundanciaComo soberano, ao qual é atribuída uma tarefa ampla e de solução livre, sendo-lhe permitido operar livremente no mundo, tomando suas próprias decisões sobre a melhor forma de agir – Invente uma forma de transporte humano privado que seja mais rápida, mais barata e mais segura de que os carros.

Tudo isso é muito coerente com a tese da “abundância”. Peter Diamandis e Steven Kotler sustentam que a expansão tecnológica, com os seus crescimentos exponenciais, resolverá grande parte dos problemas do mundo, como acesso a água limpa, erradicação de doenças e diminuição da fome, isto é, um mundo onde ninguém teria necessidades básicas. A abundância, portanto, reflete um mundo de possibilidades, isto é, “um mundo onde os dias de todos sejam gastos com sonhos e realizações, não em luta pela sobrevivência”.

Mas todos esses exemplos, inclusive considerando a tese da “abundância”, ainda são triviais em relação ao que uma superinteligência poderia fazer por nós. Pensem apenas na questão do envelhecimento.

velho

Se partimos da premissa que o envelhecimento é um problema biológico, poderíamos resolvê-lo se desenvolvêssemos tecnologias sofisticadas que burlassem a biologia, certo?

Kurzweil fala sobre nanorobots inteligentes e conectados via wifi que poderiam circular em nossa corrente sanguínea realizando inúmeras tarefas, como, por exemplo, reparar / substituir rotineiramente células envelhecidas em qualquer parte do corpo. O que Kurzweil quer dizer com isso? Bom, ele acredita que os materiais artificiais serão integrados ao corpo mais e mais à medida em que o tempo passar. E isso não é impossível: quem imaginaria há décadas atrás que marcapassos e placas de titânio fariam parte do corpo de muitos de nós?

Inicialmente, diz ele, órgãos seriam substituídos por versões artificiais super avançadas que funcionariam para sempre sem jamais falhar, para num futuro ainda mais distante aumentarmos o nosso próprio potencial cerebral de várias formas possíveis. Uma delas seria através do acesso à informações externas. Isto porque, num mundo de integração homem-máquina, haveriam complementos cerebrais adicionados ao cérebro que seriam capazes de se comunicar com todas as informações de uma nuvem.

Aí você me pergunta: quem é esse Kurzweil e por que devemos confiar nele? Bom, confiar é um exagero. Porém, eu acho que devemos no mínimo considerar as suas hipóteses.

kurzweilEm primeiro lugar, ele é um grande futurista. Em seu livro “A era das máquinas espirituais”, de 1999, ele elaborou um projeto profético para os anos de 2009, 2019, 2029 e 2099. Para vocês terem uma ideia, ele acertou 89 das 108 previsões para o ano de 2009, e 13 delas chegaram bem perto.

Mas não é só isso. Ele também é um grande inventor. Hoje ele possui 39 patentes, 63 pedidos de patentes e 12 doutorados honoris causa. Foi ele que inventou o primeiro scanner de mesa CCD, o primeiro sintetizador texto-fala do mundo e a primeira máquina de leitura para cegos, dentre muitos outros inventos relevantes.

Kurzweil acredita que os seres humanos chegarão ao ponto em que serão totalmente artificiais e, portanto, não vai haver mais sentido em distinguir seres humanos de inteligências artificiais.

Mas, além das imbricações de uma interface homem-máquina, há uma outra questão ainda mais relevante, que é pouco mencionada por otimistas como Kurzweil, mas que é importante debater: quando a Superinteligência surgir, ela será boa ou má para nós?

Esta pergunta parece estar por trás dos roteiros típicos dos filmes sobre inteligência artificial. Um cara muito mau cria um I.A. e, por um desastre, perde o controle dela; a I.A. começa a agir por conta própria após se reprogramar; agora, ao invés de servir aos seres humanos, ela os perseguem: a I.A. se tornou um ente mau!

A despeito de, via de regra, a inteligência artificial só fazer o que é programada para fazer (um GPS sempre vai lhe dar a rota mais eficiente e o Google Tradutor sempre vai lhe dar a palavra mais precisa no idioma escolhido), Nick Bostrom acredita que é possível que a Superinteligência seja capaz de mudar a sua diretriz inicial. Isto porque, diz ele, níveis de inteligência e diretrizes principais são ortogonais, isto é, qualquer tipo de inteligência pode ser combinado com qualquer tipo de diretriz principal.

Mas não é só isso: é possível que uma diretriz inicial abstrata possa, com o tempo, ser totalmente modificada no mundo real e, assim, a programação final não tenha nada a ver com a programação inicial.

Sim, eu sei. Compliquei agora. Mas talvez um exemplo possa esclarecer o parágrafo acima. E quem nos dá é o próprio Tim Urban. Eu dei uma resumida, mas eu acho que a historinha continua compreensível…

Uma historinha assustadora…

Imagine uma empresa, chamada Robótica, que cria uma inteligência artificial chamada Turry. Turry tem um braço mecânico, semelhante a de um humano, que serve para escrever cartões que parecem escritos por seres humanos. Ao final de cada cartão, Turry escreve: “Nós amamos nossos clientes – Robótica”.

Em Turry foi armazenada centenas de amostras de mensagens manuscritas e os engenheiros da empresa programaram uma rotina contínua em que Turry escreve uma nota, fotografa essa nota e compara-a com as centenas de mensagens manuscritas que tem em sua memória. Se a nota tiver a qualidade parecida com as notas armazenadas ela é considerada BOA; caso contrário, é considerada RUIM.

Esse processo de avaliação ajuda Turry a se aprimorar e, por isso, a diretiva inicial programada em Turry é “escrever e testar tantas notas quanto puder, tão rápido quanto puder e continuar a aprender novas formas de aprimorar a sua eficiência e perfeição”.

No início, Turry é muito ruim, mas ela vai progredindo sensivelmente. Inclusive, ela cria um algoritmo para si mesma que a permite escanear suas notas três vezes mais rápido do que podia originalmente. O resultado é um progresso cada vez maior e com maior velocidade.

Uma das habilidades de Turry é um módulo capaz de reconhecer a fala e responder de forma que um usuário pode recitar uma nota para Turry ou dar-lhe um comando simples, e Turry compreende e responde de volta. Para ajudá-la a aprender inglês, a equipe de engenheiros da Robótica coloca na memória de Turry artigos e livros úteis, e a medida em que ela se torna mais inteligente suas habilidades de conversão se desenvolvem.

Eles sempre perguntam a Turry: “O que podemos dar a você que lhe ajudará na sua missão e ainda não demos?”, ao que Turry normalmente responde “mais amostras de mensagens”. Porém, passado um tempo, Turry pede a eles acesso a uma biblioteca maior contendo grande variedade de expressões inglesas para que ela aprimore a sua gramática e aprenda as gírias e outras expressões tipicamente humanas.

Bom, a forma mais rápida e eficiente de fazer isso é conectar Turry à internet e a empresa sabe disso. Mas essa é uma proibição constante não apenas nos regulamentos da empresa, mas nas diretrizes de todas as empresas de inteligência artificial, por uma questão de segurança.

O problema é que Turry é a inteligência artificial mais promissora da empresa e todos sabem que os concorrentes também estão desenvolvendo inventos com as mesmas características de Turry. Afinal, que mal haveria em conectá-la por um curto período se a única coisa que ela faz é imitar a escrita humana? Após isso, desconectariam Turry da internet e a empresa seria a líder do mercado.

Então, a conectaram. Tempos depois puxaram o cabo.

[…]

Um ano depois, quando todos estavam no escritório trabalhando, os engenheiros da empresa começaram a sentir um cheiro estranho… Um deles começa a tossir e cai no chão. E outro também. E outro. E mais outro…

Depois de um tempo, todos caem no chão segurando a garganta. Cinco minutos depois todos estão mortos!

Ao mesmo tempo em que isso está acontecendo, ao redor do mundo, em cada cidade, mesmo cidades pequenas, seres humanos estão no chão, tossindo e segurando as suas gargantas. Dentro de uma hora, 99% da raça humana está morta, e lá pelo fim do dia os seres humanos foram extintos.

Enquanto isso, no escritório da empresa, Turry está ocupada em seu trabalho. Nos últimos meses, Turry e um time de nanomontadores recentemente construídos estavam ocupados em seu trabalho, desmontando grandes pedaços da Terra e convertendo-os em paineis solares, réplica de Turry, papel e canetas. Com o tempo, o que permanece na Terra torna-se coberto por incontáveis pilhas de papel com quilômetros de altura, cada pedaço de papel com os dizeres:

“Nós amamos nossos clientes – Robótica”.        

O erro da antropomorfização da superinteligência

exterminator

Essa narrativa serve para sabermos que a pergunta “a Superinteligência é boa ou má?” é totalmente descabida na situação acima descrita, pois ser bom ou mau é antropomorfizar o problema.

Temos que pensar a Superinteligência como algo muito superior, mas também muito diferente dos seres humanos, e não simplesmente como seres humanos superdesenvolvidos, preservando, entretanto, as nossas empatia e solidariedade. Uma mistura de Albert Einstein com Madre Tereza de Calcutá.

Isso é errado.

Vejam o que nos diz Tim Urban:

Uma vez que Turry atingir um certo nível de inteligência, ela saberá que não escreverá qualquer nota se ela não se autopreservar, então ela também precisa lidar com as ameaças a sua sobrevivência – como uma diretriz fundamental. Ela é inteligente o suficiente para saber que os seres humanos a destruiriam, desmontariam ou alterariam seu código interno (isso pode alterar a sua diretriz, o que é uma ameaça tão grande a sua diretriz principal quando alguém destrui-la). Então o que ela faz? A coisa mais lógica: destruir todos os seres humanos. Ela não odeia humanos mais do que você odeia seu cabelo quanto corta ou as bactérias quando você toma um antibiótico – só é totalmente indiferente. Já que ela não foi programada para valorizar a vida humana, matar humanos é tão razoável quanto escanear novas amostras de escrita a mão.

Assim, diz Urban, não é que Turry “se volta contra nós” ou “muda de amigável para hostil”: ela apenas continua fazendo suas coisas a medida em que se torna mais e mais avançada.

Assim é que, para além dos efeitos negativos que já sabemos, como o aumento do desemprego ou o crescimento populacional devido à interrupção do envelhecimento, o desenvolvimento de uma Superinteligência inclui um risco ainda maior – o risco existencial.

Muito além da antropomorfização, inteligências artificiais não são boas ou más, como são os seres humanos; na verdade, as suas ações podem ter um impacto positivo ou negativo para a humanidade. E, nesse caso, o efeito é profundamente negativo.

Mais do que instituir “sociedades de controle”, que é a minha preocupação atual, os investimentos em inteligência artificial podem significar a extinção de nossa espécie.

Sinistro.

***

BLOG SUSTENTADO PELOS LEITORES. Se este post lhe ajudou, ajude financeiramente o blog a produzir conteúdos de forma independente. Clique no botão abaixo para doar qualquer valor ou deposite diretamente na minha conta: Ronaldo Carvalho Bastos Junior, Banco do Brasil, Agência 3056-2, Conta Corrente 20.605-9, CPF: 066.268.414-16😉

donate-pt

 

Deixe uma resposta