Logo Passei Direto
Buscar

(Artigo completo) Tim Urban - A Revolução da Inteligência Artificial-Tim Urban (2015)

Ferramentas de estudo

Material
páginas com resultados encontrados.
páginas com resultados encontrados.
left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

left-side-bubbles-backgroundright-side-bubbles-background

Crie sua conta grátis para liberar esse material. 🤩

Já tem uma conta?

Ao continuar, você aceita os Termos de Uso e Política de Privacidade

Prévia do material em texto

A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, 
PARTE 1 
 
Por Tim Urban - 
 
5 de agosto de 2015 
 
http://ano-zero.com/ai1/ 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html 
 
Nota do autor: a razão deste artigo ter levado três semanas para ser 
concluído é que a medida em que me aprofundava em pesquisas 
sobre Inteligência Artificial, eu não conseguia acreditar no que 
estava lendo. E percebi bem rápido que aquilo que está acontecendo 
no mundo da Inteligência Artificial não é apenas um tema 
importante, mas é, DE LONGE, o tema mais importante para o nosso 
futuro. Então eu desejava aprender tanto quanto possível a respeito, 
e uma vez que feito isso, quis ter certeza de que escreveria um artigo 
realmente explicando toda a situação e porque o assunto é tão 
importante. Não é de surpreender que o artigo tenha se tornado 
absurdamente longo, então o dividi em duas partes. Esta é a parte 1. 
Nota do Tradutor: devido a sua extensão, decidimos dividir as duas 
partes do artigo de Tim Urban em duas partes. Na versão brasileira, 
portanto, este artigo terá 4 partes. 
 
Estamos à beira de uma mudança comparável ao surgimento da vida 
humana da Terra – Vernor Vinge 
 
 
http://ano-zero.com/author/timurban/
Qual é a sensação de estar nesse lugar? 
 
Parece ser um lugar bem intenso de se viver — mas aí você tem que 
se lembrar de algo sobre o que significa situar-se em um gráfico de 
tempo: você não consegue ver o que está à sua direita. Então é essa 
a real sensação de estar ali: 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/ai-01-01.jpg
 
O que parece ser uma experiência bem comum… 
 
O FUTURO LONGÍNQUO – EM BREVE 
Imagine pegar uma máquina do tempo e retornar a 1750 — uma 
época em que o mundo estava em permanente luta pelo poder, 
comunicação a longa distância significada ou gritar bem alto ou 
disparar uma bola de canhão, e todas as formas de transporte 
comiam feno. Quando você chegar lá, você pega um cara, traz ele 
para 2015 e aí passeia com ele pela cidade, observando como 
reagirá a tudo que ver. É impossível para nós compreender o que 
seria para ele ver cápsulas brilhantes correndo em uma avenida, 
falar com pessoas que estiveram no outro lado do oceano na manhã 
daquele mesmo dia, olhar partidas que estão sendo jogadas há 
quilômetros de distância, ouvir uma performance musical que 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/ai-01-02b.jpg
aconteceu 50 anos atrás, brincar com um retângulo mágico que ele 
pode usar para capturar imagens da vida real ou gravar um 
momento de sua vida, gerar um mapa com um ponto azul 
paranormal que mostra onde ele está, olhar o rosto de alguém e 
conversar com essa pessoa ainda que ela esteja do outro lado do 
país, e todo um mundo de inconcebíveis feitiçarias. E tudo isso 
antes de você mostrar a ele e a internet e explicar coisas como a 
Estação Espacial Internacional, o Grande Colisor de Hadróns, armas 
nucleares ou a Teoria Geral da Relatividade. 
Essa experiência, para ele, não seria surpreendente, ou chocante ou 
mesmo colapsante — essas palavras não são grandes o suficiente. 
Na verdade ele pode até morrer. 
 
Mas aqui temos algo interessante. Se ele retornar para 1750 e ficar 
com inveja de termos visto sua reação e decidir que quer tentar a 
mesma coisa, ele então entrará na máquina do tempo para regressar 
o mesmo período no passado, pegará alguém no ano de 1500 e o 
trará para 1750, a fim de mostrar seu mundo a essa outra pessoa. E 
o cara de 1500 ficará chocado com um monte de coisas — mas ele 
não morrerá. Será uma experiência muito menos insana para ele, 
pois embora o ano de 1500 seja bem diferente do período de 1750, 
há muito menos diferença do que entre 1750 e 2015. O cara de 1500 
aprenderá algumas coisas doidas sobre o espaço e a física, ficará 
impressionado com o quanto a Europa ficou comprometida com 
essa moda nova de imperialismo, e precisaria fazer algumas 
revisões significativas no mapa que tem do mundo. Mas observando 
a vida cotidiana do ano de 1750 (transporte, comunicação, etc), ele 
definitivamente não morreria. 
Não, para o cara de 1750 ter tanta diversão quanto nós tivemos com 
ele, ele teria que voltar muito mais no tempo — talvez voltar até 
12.000 AC, antes de a Primeira Revolução Agrícola dar origem as 
primeiras cidades e ao conceito de civilizaçã0. Se alguém de um 
mundo inteiramente nômade — de uma época em que os homens 
eram, de certo modo, apenas mais uma espécie de animal — visse os 
impérios humanos de 1750, com suas igrejas de elevadas torres, 
suas embarcações que cruzavam oceanos, seu conceito de estar 
“dentro” de uma construção, sua enorme montanha de 
conhecimento coletivo acumulado e suas descobertas — ele 
provavelmente morreria. 
E se, após morrer, ele ficasse também com inveja e desejasse fazer a 
mesma coisa? Se ele voltasse doze mil anos para 24.000 AC e 
pegasse um cara e trouxesse ele para 12.000 AC, e mostrasse a esse 
sujeito toda as coisas, esse cara diria algo como “certo, o que você 
está querendo me mostrar?” Pois para o cara de 12.000 AC ter a 
mesma diversão, ele precisaria retornar 100.000 anos e pegar 
alguém a quem pudesse mostrar o fogo e a linguagem pela primeira 
vez. 
Para que alguém do presente fosse transportado até o futuro e 
morresse de choque como eles morreram, seria necessário que 
navegasse anos adiante no tempo até o momento em que tenhamos 
atingido o “nível de progresso mortífero”, ou, em outras palavras, 
até que alcançássemos uma nova Unidade Fatal de Progresso (UFP). E 
se uma UFP levou 100.000 para ser atingida a partir da época do 
nomadismo, a próxima UFP, após a Revolução Agrícola, levou apenas 
12.000 anos. Já o mundo posterior à Revolução Industrial mudou 
tão rapidamente que uma pessoa de 1750 precisa avançar apenas 
algumas centenas de anos no tempo para que uma nova UFP tenha 
acontecido. 
Esse padrão — o progresso humano desenvolvendo-se cada vez mais 
rápido ao longo do tempo — é o que o futurista Ray Kurzweil chama 
Lei dos Retornos Acelerados da história humana. Isso ocorre porque 
sociedades mais avançadas tem a habilidade de progredir em um 
ritmo mais veloz do que sociedades menos avançadas — justamente 
por serem mais avançadas. A humanidade do século dezenove sabia 
mais e tinha melhor tecnologia do que a humanidade do século 
quinze, logo não é surpresa que a humanidade tenha feito mais 
avanços no século dezenove do que no século quinze — a 
humanidade do século quinze não tem como se comparar à 
humanidade do século dezenove. [1] 
Isso também funciona em escalas menores. O filme De Volta para o 
Futuro estreou em 1985, e nele o “passado” ocorre em 1955. No 
filme, quando Michael J. Fox retorna para 1955, é pego de surpresa 
pela novidade que então era a TV, pelo preço dos refrigerantes, pela 
falta de interesse nas estridências da guitarra elétrica, e pelas gírias 
da época. Era um mundo diferente sim — mas se o filme fosse feito 
hoje e o seu passado ocorresse em 1985, o filme seria muito mais 
divertido devido às diferenças serem maiores. O protagonista 
estaria num tempo anterior aos computadores pessoais, à internet e 
aos telefones celulares — o Marty McFly de hoje em dia, um 
adolescente nascido no fim da década de 90, estaria muito mais 
deslocado em 1985 do que o Marty McFly do filme estava em 1955. 
E isso acontece pela mesma razão que acabamos de abordar: a Lei 
dos Retornos Acelerados. A taxa média de progresso no período 
1985 e 2015 é superior a taxa entre 1955 e 1985 — pois o primeiro 
período ocorreu num mundo mais avançado — muito mais coisas 
aconteceram nos últimos trinta anos do que nas três décadas que 
lhe precederam. 
Portanto, o progresso ocorre em passos cada vez mais largos e cada 
vez mais rápidos. Isso nos faz pensar algumas coisas bem 
interessantes sobre o futuro, certo? 
Kurzweil sugere que o progresso do século vinte inteiro seriaconquistado em apenas vinte anos se tivesse seguido a taxa de 
progresso do ano 2000 – em outras palavras, no ano 2000, a taxa de 
progresso era cinco vezes superior à taxa média de progresso de 
todo o século vinte. Ele acredita que outra taxa de progresso 
semelhante à do século vinte ocorreu entre 2000 e 2014, que outra 
taxa de progresso equiparável à do século vinte ocorrerá até 2021, 
em apenas sete anos. Algumas décadas mais tarde, ela ocorrerá em 
menos de um mês. No final das contas, graças à Lei do Retorno 
Acelerado, Kurzveil acredita que o século vinte e um terá mil vezes 
o progresso ocorrido no século vinte. 
Se Kurzveil e outros que concordam com ele estiverem corretos, 
então nós poderemos ter um enfarto em 2030 da mesma forma que 
nosso cara de 1750 teve um em 2015 – isto é, a próxima UFP pode 
ocorrer em apenas algumas décadas – e o mundo em 2050 pode ser 
tão enormemente diferente do mundo de hoje que nós mal o 
reconheceríamos. 
Isso não é ficção científica. É o que muitos cientistas mais espertos 
e com mais conhecimento do que eu e você firmemente acreditam – 
e se você olhar para a história, é o que você logicamente preveria. 
Então porque é que, quando você me escuta dizendo algo como “o 
mundo daqui a 35 anos pode ser totalmente irreconhecível” você 
pensa “Legal… mas fala sério!”? Três são as razões pelas quais 
somos céticos a previsões bizarras do futuro: 
1) Quando se trata de história, nós pensamos em linha 
reta. Quando imaginamos o progresso dos próximos 30 anos, 
olhamos para trás e vemos o progresso dos 30 anos anteriores como 
um indicador de como provavelmente as coisas vão acontecer. 
Quando pensamos no quanto o mundo irá mudar no século vinte e 
um, nós simplesmente pegamos o progresso do século vinte e o 
colocamos no ano 2000. Esse foi o mesmo engano que o nosso cara 
de 1750 fez quando ele pegou alguém de 1500 e achava que iria 
deixá-lo em choque tanto quanto ele ficou em choque avançando o 
mesmo tempo no futuro. 
É mais intuitivo para nós pensar de forma linear, quando devíamos 
estar pensando de forma exponencial. Se alguém for mais esperto a 
respeito do tema, preverá o progresso dos próximos 30 anos não 
olhando para os 30 anos anteriores, mas pegando a atual taxa de 
progresso e baseando seu julgamento nisso. Ele será mais preciso, 
mas ainda estará longe da verdade. Para pensar no futuro 
corretamente, você precisa imaginar as coisas evoluindo numa 
taxa muito mais acelerada do que a atual. 
 
2) A trajetória mais recente dos eventos em geral nos apresenta 
uma história distorcida. Primeiramente, mesmo uma íngreme curva 
exponencial parece linear quando você observa apenas uma 
pequena parte dela, da mesma forma que ocorre quando você olha 
para um pequeno segmento de um grande círculo bem de perto e ele 
parece quase uma linha reta. Em segundo lugar, o crescimento 
exponencial não é totalmente uniforme e sem acidentes. Kurzweil 
explica que o progresso ocorre em “curvas em S”: 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/ai-01-03b.jpg
 
Um S é criado pela onda do progresso quando um novo paradigma 
surge no mundo. A curva então passa por três fases: 
1) Crescimento lento (a fase inicial do crescimento exponencial); 
2) Crescimento rápido (a fase posterior, explosiva do crescimento 
exponencial); e 
3) Um nivelamento a medida em que o paradigma se consolida [3]. 
Se você olhar apenas para a história recente, a parte da curva em S 
na qual você está neste momento pode obscurecer sua percepção do 
quão rapidamente as coisas estão evoluindo. O período entre 1995 e 
2007 viu a explosão da internet, a inclusão da Microsoft, Google e 
Facebook na consciência coletiva, o nascimento das redes sociais e a 
introdução dos celulares e depois dos smartphones. Depois houve a 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/ai-01-04.jpg
Fase 2: a parte da explosão de crescimento da curva em S. Mas de 
2008 a 2015 houve menos avanço, ao menos no front tecnológico. 
Alguém pensando no futuro hoje examina os últimos poucos anos 
para estimar a atual taxa de progresso, mas isso significa deixar de 
ver o panorama mais amplo. De fato, uma nova e enorme Fase 2 de 
explosão do crescimento pode estar começando agora mesmo. 
3) Nossas próprias experiências nos fazem velhos ranzinzas a 
respeito do futuro. Nós baseamos nossas ideias sobre o mundo em 
nossa experiência pessoal, e essa experiência enraizou a taxa de 
crescimento do passado em nossas mentes como “o modo como as 
coisas acontecem. Também somos limitados por nossa imaginação, 
que pega nossa experiência e a usa para elaborar as predições sobre 
o futuro – mas frequentemente, o que sabemos simplesmente não 
nos dá as ferramentas necessárias para pensar com exatidão sobre o 
futuro [2]. Quando ouvimos uma previsão sobre o futuro que 
contradiz nossa experiência baseada em como as coisas funcionam, 
nosso extinto tende a considerar essa previsão ingênua. Se eu disser 
a você, mais tarde neste artigo, que você pode viver 150 anos, ou 
250 anos, ou pode nem mesmo morrer, você instintivamente 
pensará “isso é idiota – se tem uma coisa que sei sobre a história é 
que todo mundo morre”. E sim, ninguém do passado deixou de 
morrer. Mas ninguém do passado voou num avião antes do avião ser 
inventado. 
Então embora ceticismo possa parecer correto a medida em que 
você ler este artigo, provavelmente ele estará errado. O fato é que, 
se formos realmente lógicos e esperarmos que os padrões 
da história continuem, concluiremos que muito, muito, muito mais 
coisas mudarão nas próximas décadas do que intuitivamente 
esperamos que mude. A lógica também sugere que se a espécie mais 
avançada em um planeta continuar a dar saltos cada vez mais largos 
em uma taxa de aceleração cada vez maior, em algum ponto essa 
espécie dar[a um salto tão grande que alterará completamente a 
vida tal como é conhecida, bem como sua percepção do que 
significa ser um humano – da mesma forma como a evolução 
prosseguiu dando grandes saltos em direção à inteligência até 
finalmente dar um salto tão enorme para chegar ao ser humano que 
isso alterou completamente para qualquer criatura o que significa 
estar viva no planeta Terra. E se você passar mais tempo lendo 
sobre o que está acontecendo hoje na ciência e tecnologia, você 
começará a ver um monte de sinais silenciosamente dando a 
entender que a vida como atualmente a conhecemos pode não 
suportar o salto que está por vir em seguida. 
A ESTRADA PARA A SUPERINTELIGÊNCIA 
O que é Inteligência Artificial? 
Se você é como eu, você costuma pensar que Inteligência Artificial é 
um tolo conceito de ficção científica, mas depois você começou a 
ouvir esse conceito mencionado por pessoas sérias, e você 
realmente não entendeu. 
Há três razões pelas quais muitas pessoas ficam confusas quando se 
trata de Inteligência Artificial: 
1) Nós associamos Inteligência Artificial com filmes. Star Wars. 
Exterminador do Futuro. 2001 – Uma Odisseia no Espaço. Mesmo os 
Jetsons. E todas essas são obras de ficção, assim como são 
ficcionais os personagens robóticos. Então isso faz com que 
Inteligência Artificial pareça um pouco ficcional para nós. 
2) Inteligência Artificial é um tema muito amplo. Esse assunto 
abrange desde calculadoras de celular até carros sem motorista. 
Inteligência Artificial diz respeito a todas essas coisas, o que é um 
pouco confuso. 
3) Utilizamos Inteligência Artificial o tempo todo em nossa vida 
cotidiana, mas frequentemente não percebemos que se trata de 
Inteligência Artificial. John McCarthy, que cunhou o termo 
“Inteligência Artificial” em 1956, reclamou que “assim que foi 
criada, ninguém mais a chamou de Inteligência Artificial” [4]. 
Devido a esse fenômeno, a Inteligência Artificial em geral soa como 
uma mítica predição do futuro mais do que uma realidade. Ao 
mesmo tempo, isso faz com que pareça um conceito popular dopassado que nunca se tornou verdade. Ray Kurzveil diz que 
costuma escutar as pessoas dizerem que a Inteligência Artificial é 
um conceito que murchou na década de 1980, afirmação que ele 
compara a “insistir que a internet morreu no estouro da bolha 
pontocom no início da primeira década do século vinte” [5] 
Então vamos esclarecer as coisas. Em primeiro lugar, pare de pensar 
em robôs. Um robô é um container para uma Inteligência Artificial, 
às vezes imitando a forma humana, às vezes não – mas a 
Inteligência Artificial em si mesma é o computador dentro do robô. 
A Inteligência Artificial é o cérebro, e o robô é seu corpo – se é que 
ela tem um corpo. Por exemplo, o software e os dados por trás 
da Siri são uma Inteligência Artificial, a voz feminina que ouvimos é 
a personificação dessa Inteligência Artificial, e não tem nenhum 
robô envolvido nessa história. 
Em segundo lugar, você provavelmente já ouviu o termo 
“singularidade” ou “singularidade tecnológica. Esse termo tem sido 
usado na matemática para descrever uma situação semelhante a 
uma assintota na qual as regras habituais já não mais se aplicam. 
Tem sido usada na física para descrever fenômenos como um 
infinitamente pequeno e denso buraco negro ou ponto onde tudo 
fica espremido na exata situação logo anterior ao Big Bang. 
Novamente, tratam-se de situações em que as regras habituais não 
se aplicam. Em 1993, Vernor Vinge escreveu um famoso artigo no 
qual ele aplicou o termo singularidade para se referir ao momento 
no futuro quando a inteligência de nossa tecnologia superar a nossa 
própria inteligência — um momento para ele quando a vida como a 
https://pt.wikipedia.org/wiki/Siri_(software)
https://pt.wikipedia.org/wiki/Assintota
https://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
conhecemos mudará para sempre e as regras habituais não mais se 
aplicarão. Ray Kurzveil então tornou as coisas um pouco confusas 
ao definir a singularidade como o momento quando a Lei do Retorno 
Acelerado atingiu um ritmo tão extremo que o progresso 
tecnológico acontece em um ritmo aparentemente infinito, e após 
esse momento estaremos vivendo em um mundo totalmente 
diferente. Descobri que muitos dos atuais teóricos da Inteligência 
Artificial pararam de usar esse termo, e ele é de qualquer forma 
confuso, então não irei usá-lo (muito embora estaremos focando 
nessa ideia ao longo de todo o artigo). 
Por fim, se por um lado há muitos tipos ou formas de Inteligência 
Artificial, já que se trata de um conceito abrangente, as principais 
categorias sobre as quais precisamos pensar estão baseadas 
no calibre de uma Inteligência Artificial. E há três principais calibres 
de Inteligência Artificial: 
Calibre 1 – Inteligência Artificial Superficial (IAS): Às vezes 
chamada de Inteligência Artificial Fraca, a IAS é a Inteligência 
Artificial especializada em uma só área. Existem Inteligências 
Artificiais que podem derrotar o campeão mundial de xadres, mas 
essa é a única coisa que fazem. Peças para descobrir uma melhor 
maneira de armazenar dados em um hard drive e elas olharão para 
você como se não entendessem o que diz. 
Calibre 2 – Inteligência Artificial Ampla (IAA): Às vezes chamada 
de Inteligência Artificial Forte, ou Inteligência Artificial de Nível 
Humano, a IAA refere-se a um computador que é tão inteligente 
quando um ser humano em termos gerais – uma máquina que pode 
desempenhar qualquer tarefa intelectual que um ser humano pode. 
Criar uma IAG é muito mais difícil do que criar uma IAS, e não 
chegamos lá ainda. Linda Gottfredson descreve essa inteligência 
como “uma capacidade mental bem ampla que, entre outras coisas, 
envolve a habilidade de debater, planejar, resolver problemas, 
pensar abstratamente compreender ideias complexas, aprender 
rapidamente e aprender a partir da experiência”. A IAA seria capaz 
de fazer todas essas coisas tão facilmente quanto você. 
Calibre 3 – Superinteligência Artificial (SA): Nick Bostrom, filósofo 
de Oxford e um dos principais teóricos da Inteligência Artificial, 
define superinteligência como “um intelecto que é muito mais 
inteligente que os melhores cérebros humanos em praticamente 
todos os campos, incluindo criatividade científica, sabedoria geral e 
habilidades sociais”. A Superinteligência Artificial abrange de um 
computador que é só um pouco mais inteligente que um ser humano 
até um que é três milhões de vezes mais inteligente que um ser 
humano – em todos os aspectos. A SA é a razão de os debates sobre 
Inteligência Artificial serem tão espinhosos e o motivo pelo qual as 
palavras imortalidade e extinção aparecerão neste artigo múltiplas 
vezes. 
Até agora, os seres humanos conseguiram construir a Inteligência 
Artificial de menor calibre (a IAS) de tantas maneiras que ela está 
em todo lugar. A Revolução da Inteligência Artificial é a estrada que 
parte da IAS, passa pela IAA e chega em SA – uma estrada na qual 
poderemos não sobreviver mas que, de um modo ou de outro, 
mudará todas as coisas. 
 
Leia a segunda parte. 
 
 
 
 
 
A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 2 
 
Por Tim Urban - 
http://www.nickbostrom.com/superintelligence.html
http://ano-zero.com/author/timurban/
 
13 de agosto de 2015 
 
 
[Nota do tradutor: esta é a segunda parte do perturbador artigo de 
Tim Urban, traduzido do texto original com autorização do autor. 
Para compreender esta segunda parte, você precisa ler a 
primeira, clicando aqui. Vale MUITO a pena, isso eu garanto!] 
 
Vamos olhar de perto como os principais pensadores no campo da 
Inteligência Artificial supõem que a estrada para a Super 
Inteligência pode ocorrer mais rápido do que você imagina: 
 
ONDE ESTAMOS AGORA – EM UM MUNDO QUE FUNCIONA COM 
BASE NA IAS 
Inteligência Artificial Superficial (IAS) é uma máquina de 
inteligência que supera ou iguala a inteligência ou eficiência 
humana em uma coisa específica. Alguns exemplos: 
 Automóveis estão cheios de sistemas de IAS, do computador 
que percebe quando o freio ABS deve ser acionado ao 
computador que estabelece os parâmetros do sistema de 
injeção de combustível. O carro sem motorista da Google, 
que está sendo testado neste momento, conterá sistemas de 
IAS que permitirão perceber e reagir ao mundo ao redor do 
carro. 
 Seu telefone é uma pequena fábrica de IAS – ele começa 
cheio de inteligência sobre como identificar o que é spam e 
o que não é, e depois aprende e adapta essa inteligência a 
seu perfil à medida em que adquire experiência com suas 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
http://ano-zero.com/ai1/
https://www.youtube.com/channel/UCCLyNDhxwpqNe3UeEmGHl8g
preferências particulares. Otermostato da Nest faz a mesma 
coisa à medida em que começa a descobrir suas rotinas e 
adapta-se a elas. 
 Você já conhece aquela coisa esquisita que acontece quando 
você procura um produto na Amazon e daí você o vê como 
um produto “recomendado para você” em um outro site, ou 
quando o Facebook sabe de alguma forma quais pessoas faz 
sentido você adicionar como amigos? Tratam-se de redes de 
sistemas de IAS trabalhando juntas para informar uma à 
outra sobre quem você é e o que você gosta, e então 
utilizando essa informação para decidir o que mostrar a 
você. O mesmo ocorre com aquele lance da Amazon de 
“pessoas que compraram este produto também 
compraram…” – é um sistema de IAS cujo trabalho é colher 
informações a partir do comportamento de milhões de 
clientes e sintetizar esses dados para espertamente 
convencer você a comprar mais coisas. 
 O tradutor do Google é um caso clássico sistema de IAS – 
incrivelmente bom em uma pequena tarefa. O 
reconhecimento de voz é outro caso, e há um bocado de 
aplicativos que utilizam dois IASs como um time, 
permitindo a você falar uma frase em uma linguagem ao 
mesmo tempo em que o telefone repete a mesma frase em 
outra linguagem. 
 Quando o avião emque você está aterrissa, não é um ser 
humano que decide para qual portão ele deve ir. Assim 
como não é um ser humano que determina o preço da sua 
passagem. 
 Os melhores jogadores de damas, xadrez e gamão do mundo 
são neste momento todos sistemas de IAS. 
 O sistema de busca do Google é um enorme cérebro IAS com 
métodos incrivelmente sofisticados para hierarquizar 
páginas e descobrir o que mostrar a você em específico. O 
mesmo ocorre com o newsfeed do Facebook. 
https://store.nest.com/product/thermostat/
 E esses sistemas são apenas os do mundo do consumo. 
Sofisticados sistemas de IAS são largamente usados em 
indústrias e em setores como o militar, o têxtil e o 
financeiro (IASs com algoritmos de elevada atividade são 
responsáveis por mais da metade das ações negociadas no 
mercado norte-americano [6]), e em sistemas especializados 
como aqueles que auxiliam os médicos a fazer diagnósticos 
e, o mais famoso de todos, também são utilizados 
no Watson da IBM, que contém fatos o suficiente e os 
compreende bem o bastante para vencer qualquer campeão 
de um programa de Quiz como o Show do Milhão. 
Sistemas de IAS, na forma como existem hoje, não são 
particularmente assustadores. No pior dos casos, um IAS mal 
programado pode causar uma catástrofe isolada como provocar um 
blecaute elétrico, resultar num perigoso mal funcionamento em 
certa usina nuclear ou produzir um desastre financeiro (como a 
Crise Instantânea de 2010, quando um programa de IAS reagiu da 
forma errada diante de uma situação inesperada e provocou uma 
queda breve na bolsa de valores, causando uma perda de um trilhão 
de dólares em valor de mercado, sendo que apenas uma parte disso 
foi recuperada quando o problema foi corrigido). 
Mas enquanto uma Inteligência Artificial Superficial não tem a 
capacidade de causar uma ameaça existencial, deveríamos perceber 
esse ecossistema progressivamente maior e mais complexo de IASs 
relativamente-inofensivas como um indicador de que um furacão 
capaz de alterar o mundo inteiro está a caminho. Cada inovação 
nesse tipo de Inteligência Artificial silenciosamente pavimenta um 
pequeno trecho da estrada que leva para a Inteligência Artificial 
Ampla e, depois, para a Super Inteligência. Ou, como Aaron Saenz 
diz, os Sistemas de IAS do nosso mundo “são como os aminoácidos 
na atmosfera primitiva do planeta Terra – os elementos inanimados 
da vida que, em um dia inesperadamente produzem vida”. 
http://www.ibm.com/smarterplanet/us/en/ibmwatson/
http://ano-zero.com/2015/08/05/ai1/#calibres
http://ano-zero.com/2015/08/05/ai1/#calibres
http://singularityhub.com/2010/08/10/we-live-in-a-jungle-of-artificial-intelligence-that-will-spawn-sentience/
http://singularityhub.com/2010/08/10/we-live-in-a-jungle-of-artificial-intelligence-that-will-spawn-sentience/
 
A ESTRADA DA IAS PARA A IAA 
 
POR QUE É TÃO DIFÍCIL. 
Nada fará você ficar mais admirado com a inteligência humana do 
que aprender o quanto é incrivelmente desafiante tentar criar um 
computador tão inteligente quanto nós. Construir arranha-céus, 
colocar seres humanos no espaço, descobrir detalhes do Big Bang 
não é nada – tudo isso é muito mais fácil do que entender nosso 
próprio cérebro ou como fazemos coisas tão legais quanto essas. 
Neste momento, o cérebro humano é o objeto mais complexo 
existente no universo conhecido. 
O que é interessante é que as partes difíceis de construir uma 
Inteligência Artificial Ampla (IAA – um computador tão inteligente 
quanto seres humanos em geral, e não apenas numa tarefa 
específica) não é algo tão intuitivo quanto você pensa que é. 
Construir um computador que pode multiplicar números de dez 
digitos na fração de um segundo – isso é incrivelmente moleza. 
Construir um que possa observar um cachorro e responder se ele é 
um cachorro ou um gato – isso é espetacularmente difícil. Fazer 
uma Inteligência Artificial que possa derrotar qualquer ser humano 
no xadrez? Feito. Fazer um que possa ler um parágrafo de um livro 
de histórias para crianças de seis anos e não apenas reconhecer as 
palavras mas compreender o significado conjunto delas? O Google 
está neste momento gastando bilhões de dólares tentando fazer 
isso. Coisas difíceis – como cálculo, estratégia do mercado 
financeiro e tradução de linguagens – são tediosamente fáceis para 
um computador, enquanto coisas simples – como visão, movimento, 
gestos e percepção – são insanamente difíceis para ele. Ou, como o 
cientista computacional Donald Knuth disse, “a Inteligência 
http://www.wired.com/2014/01/google-buying-way-making-brain-irrelevant/
Artificial atualmente é bem sucedida em fazer essencialmente tudo o 
que exige o ato de pensar, mas falha em fazer aquelas coisas que 
pessoas e animais fazem sem pensar“ [7]. 
O que você rapidamente percebe quando pensa sobre isso é que 
essas coisas que parecem fáceis para nós são na verdade 
incrivelmente complicadas, e elas apenas parecem ser fáceis porque 
essas habilidades foram otimizadas em nós (e na maior parte dos 
animais) por centenas de milhões de anos de evolução animal. 
Quando você estica sua mão em direção a um objeto, os músculos, 
tendões e ossos em seu ombro, cotovelo e punho instantaneamente 
desempenham uma série de procedimentos físicos em conjução com 
seus olhos, a fim de permitir que você mova sua mão em linha reta 
através de três dimensões. Parece algo feito sem esforço para você 
porque tem um software aperfeiçoado em seu cérebro que faz isso. 
O mesmo ocorre em relação ao porquê de um programa hacker ser 
tão idiota ao ponto de não conseguir reconhecer aquelas palavras na 
imagem de um teste de reconhecimento humano quando você 
registra uma nova conta em um site – na verdade, seu cérebro é que 
é impressionantemente bom em fazer isso. 
Por outro lado, multiplicar grandes números ou jogar xadrez são 
atividades novas para as criaturas biológicas que somos e não 
tivemos tempo nenhum de evoluir eficientemente nessas tarefas, 
então um computador não precisa se esforçar demais para nos 
superar. Pense sobre isso: o que você preferiria fazer, construir um 
programa que possa multiplicar grandes números ou um que possa 
entender o essencial sobre a letra “B” bem o suficiente que você lhe 
possa mostrar um “B” em qualquer uma das milhares de imagináveis 
fontes ou em manuscrito de forma que ele possa instantaneamente 
reconhecer sempre que é um “B”? 
Um exemplo divertido: quando você olha para a imagem abaixo, 
você e um computador podem perceber que é um retângulo com 
dois tons de cinza alternados: 
 
Até aí, tudo bem. Mas se você eliminar a sobreposição de preto e 
revelar a imagem que estava por trás… 
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/Screen-Shot-2015-01-21-at-12.59.21-AM.png
 
…você não terá problemas em dar uma descrição completa dos 
vários cilindros opacos e translúcidos, retângulos inclinados outras 
formas tridimenssionais, mas o computador falhará 
vergonhosamente. Ele descreverá o que vê – uma variedade de 
formas bidimensionais em diversos tons de cinza – que é realmente 
o que há ali. Nosso cérebro está fazendo um trilhão de coisas 
engraçadas para interpretar a profundidade, a mistura de tons e a 
iluminação que a imagem tenta representar [8]. E olhando para a 
foto abaixo, um computador vê uma colagem de formas 
bidimencionais pretas, brancas e cinzas, enquanto você facilmente 
identifica o que realmente é – uma foto de uma rocha inteiramente 
preta: 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/Screen-Shot-2015-01-21-at-12.59.54-AM.png
Crédito: Matthew Lloyd 
 
 
E tudo o que mencionamos é apenas pegar uma informação estática 
e processá-la. Para ser inteligente no nível humano, um computador 
teria de entender coisas como a diferença entre duas sutis 
expressões faciais, a distinção entre sentir-se satisfeito, aliviado, 
contente e agradecido, e a razão pela qual Coração Valente éum 
ótimo filme enquanto O Patriota é péssimo. 
Assustador. 
Então como chegamos lá? 
O PRIMEIRO PASSO PARA CRIAR UMA IAA: AUMENTAR O PODER 
COMPUTACIONAL 
Uma coisa que sem dúvida precisa acontecer para ser possível criar 
uma IAA é aumentar o poder do hardware de nossos computadores. 
Se um sistema de Inteligência Artificial deve ser tão inteligente 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/pedranegratimurban.jpg
quanto nosso cérebro é, ele precisará se equiparar em termos de 
capacidade computacional bruta. 
Uma forma de expressar essa capacidade é o total de cálculos por 
segundo (cps) que o cérebro humano pode desempenhar, e você 
pode chegar a esse número descobrindo o máximo de cps de cada 
estrutura do cérebro e a seguir somando todos os resultados. 
Ray Kurzweil descobriu um atalho ao pegar a média de cps de uma 
estrutura cerebral e depois descobrir o peso comparativo dessa 
estrutura em relação ao peso de todo o cérebro para, a seguir, 
multiplicar proporcionalmente esse valor por uma média do peso 
total. Isso parece algo um pouco cheio de condicionantes, mas ele 
fez isso um montão de vezes com várias médias de diferentes 
regiões do cérebro, e o total sempre chegou ao mesmo resultado: 
algo entre 10 na décima sexta potência, ou 10 quatrilhões de 
cálculos por segundo. 
Atualmente, o supercomputador mais rápido do mundo, o 
chinês Tianhe-2 já superou esse número, chegando a 34 quatrilhões 
de cálculos por segundo. Mas Tianhe-2 é enorme, necessitando de 
720 metros quadrados de espaço, usando 24 megawatts de potência 
(o cérebro humano funciona com apenas 20 watts), e custou 390 
milhões de dólares para ser construído. Isso não é particularmente 
aplicável para uso genérico, ou mesmo para uso comercial ou 
industrial ainda. 
Kurzweil sugere que pensemos sobre a situação atual dos 
computadores analisando quanto cps você pode comprar com mil 
dólares. Quando esse número chegar ao nível humano (10 
quatrilhões de cps) isso significará que os sistemas de IAA podem 
se tornar uma realidade. 
A Lei de Moore é uma regra historicamente confiável que afirma que 
o máximo de poder computacional duplica aproximadamente a cada 
http://www.reuters.com/article/2014/11/17/us-china-supercomputer-idUSKCN0J11VV20141117
http://www.popsci.com/technology/article/2009-11/neuron-computer-chips-could-overcome-power-limitations-digital
http://www.mooreslaw.org/
dois anos, o que significa que o desenvolvimento do hardware, 
assim como a evolução humana ao longo da história, cresce 
exponencialmente. Observando como isso se relaciona à métrica de 
Kurzweil de quantos cps compra-se com mil dólares, estamos 
atualmente em cerca de 10 trilhões de cps por mil dólares, bem no 
ritmo de crescimento que esse gráfico prevê [9]: 
 
Portanto, os computadores do mundo que custam mil dólares estão 
atualmente superando o cérebro de um rato e tem um milhonésimo 
da capacidade humana. Isso não parece ser muito até você lembrar 
que os computadores tinham um trilionésimo do nível humano em 
2005. Ter em um milhonésimo em 2015 nos coloca bem no ritmo de 
chegar em 2025 com um computador barato que rivaliza com o 
poder do cérebro humano. 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/crescexpcomp.jpg
Então no lado do hardware, o poder bruto que precisamos para uma 
IAA está tecnicamente disponível agora, na China, e estaremos 
preparados para produzir o hardware de uma IAA economicamente 
acessível dentro de 10 anos. Mas o poder computacional bruto 
sozinho não faz um computador amplamente inteligente – a 
próxima pergunta é, como colocamos inteligência de nível humano 
em todo esse aparato físico? 
SEGUNDO PASSO PARA CRIAR UMA IAA: FAZÊ-LA INTELIGENTE 
Essa é a parte chata. A verdade é que ninguém realmente sabe como 
tornar um computador inteligente – estamos ainda discutindo como 
fazer um computador com inteligência de nível humano e capaz de 
reconhecer um cachorro, um “B” escrito torto e um filme medíocre. 
Mas há um bocado de estratégias sofisticadas por aí e em algum 
momento uma delas funcionará. Aqui estão três das mais comuns 
estratégicas com que me deparei: 
1) Plagiar o cérebro. 
E isso equivale aos cientistas se esforçarem para entender como 
aquele menino que senta ao lado deles na sala de aula é tão 
inteligente e continua a responder tão bem a todas as provas, e 
apesar de continuarem estudando diligentemente, eles não 
conseguem o mesmo desempenho, e daí eles finalmente decidem 
“ah dane-se, eu vou só colar as respostas dele na prova”. Isso faz 
sentido – estamos perplexos tentando construir um computador 
super complexo, e acontece de existir um perfeito protótipo dele em 
cada uma de nossas cabeças. 
O mundo científico está trabalhando duro para fazer engenharia 
reversa no cérebro e descobrir como a evolução fez algo tão 
assombroso – previsões otimistas estimam que conseguiremos isso 
lá por 2030. E quando conseguirmos, saberemos todos os segredos 
de como o cérebro funciona de forma tão poderosa e eficiente, e 
http://www.wired.com/2010/08/reverse-engineering-brain-kurzweil/
poderemos nos inspirar nesse funcionamento para roubar suas 
inovações. 
Um exemplo de computador que imita o cérebro humano é a rede 
neural artificial. Ela começa com uma rede de transistors “neurons”, 
conectados uns aos outros em suas entradas e saídas, e essa rede 
não sabe nada – como o cérebro de um bebê. A forma como a rede 
neural artificial “aprende” consiste em tentar executar uma tarefa, e 
de início seus chutes neurais e tentativas subsequentes ao decifrar 
uma letra serão totalmente aleatórias. Mas quando é informado que 
fez algo certo, o caminho de conexão de transistors que levou até 
aquela tentativa bem sucedida é fortalecido; quando é informado 
que fez algo errado, os caminhos de conexões que levaram à 
tentativa mal sucedida são enfraquecidos. Depois de muitas 
tentativas e feedbacks, a rede consegue, por si mesma, formar um 
caminho neural inteligente e a máquina torna-se otimizada para a 
tarefa. O cérebro humano aprende mais ou menos dessa maneira, 
mas de uma forma mais sofisticada, e a medida em que 
continuamos a estudar o cérebro, descobrimos novas formas geniais 
pelas quais ele aproveita seus circuitos neurológicos. 
Um plágio mais extremo envolve uma estratégia chamada 
“simulação total do cérebro”, em que o objetivo é fatiar um cérebro 
verdadeiro em finas camadas, escanear cada uma delas, utilizar 
software para juntar todas as imagens em um acurado modelo 
tridimensional e então implementar o modelo em um computador 
poderoso. Teríamos então um computador formalmente capaz de 
tudo que o cérebro humano é capaz de fazer – ele precisaria apenas 
aprender e juntar informação. Se os engenheiros que o construírem 
fizerem um trabalho realmente bom, serão capazes de simular um 
cérebro real com tal precisão que a personalidade e a memória que 
o cérebro humano contém poderão ser transferidos para o 
computador. Se o cérebro pertencia a João bem antes de sua morte, 
o computador agora acordaria como João, e seria uma robusta 
Inteligência Artificial de nível humano, e poderíamos a partir disso 
trabalhar para transformar João em uma Super Inteligência, coisa 
que provavelmente o deixaria entusiasmado. 
Quão longe estamos de chegar a esse nível de simulação do cérebro? 
Bem, no momento recentemente fomos capazes de simular o 
cérebro de 1 milímetro de um platelminto, que possui exatamente 
302 neurônios no total. O cérebro humano contém 100 bilhões de 
neurônios. Se isso faz com que pareça um projeto sem perspectivas, 
lembre-se o poder do progresso exponencial – agora que 
conquistamos o pequeno cérebro de um verme, o de uma formiga 
pode levar muito tempo, seguido do cérebro de um rato, e de 
repente tudo começa a ficar mais plausível. 
2) Tentar induzir a evolucão a fazer o que já fez antes, mas dessa 
vez para nós. 
Se decidirmos que copiara prova do garoto inteligente é algo muito 
difícil, podemos então tentar copiar a forma pela qual ele estuda. 
Aqui temos algo que sabemos. Construir um computador tão 
poderoso quanto o cérebro épossível – a evolução de nosso cérebro 
é a prova. E se o cérebro é complexo demais para simularmos – 
podemos tentar simular a evolução. O fato é que, mesmo se 
pudermos simular um cérebro, isso pode ser como tentar construir 
um avião copiando o bater de asas de um pássaro – mas 
frequentemente máquinas são mais bem projetadas quando usamos 
uma abordagem inovadora, orientada para máquinas, e não quando 
simplesmente simulamos com exatidão a biologia. 
Então como podemos simular a evolução para construir uma 
Inteligência Artificial Ampla? O método, chamado de “algoritmos 
genéticos”, funciona mais ou menos assim: há um processo de 
desempenho-e-avaliação que deve acontecer continuamente (da 
mesma forma que criaturas biológicas “desempenham” o ato de 
viver e são “avaliadas” através das chances que têm de procriar ou 
http://www.smithsonianmag.com/smart-news/weve-put-worms-mind-lego-robot-body-180953399/?no-ist
https://pt.wikipedia.org/wiki/Platelmintos
não). Um grupo de computadores deverá tentar fazer uma tarefa, e 
os mais bem sucedidos cruzarão uns com os outros de forma que 
metade de suas programações fundam-se e formem um novo 
computador. Os mal sucedidos serão eliminados. Após muitas, 
muitas interações, essa seleção natural produzirá computadores 
cada vez melhores. O desafio seria criar um ciclo de avaliação e 
cruzamento de modo que o processo de evolução possa funcionar 
autonomamente. 
O lado negativo de simular a evolução é que a evolução gosta de 
levar bilhões de anos para fazer as coisas, e queremos fazer isso em 
poucas décadas. 
Mas temos um monte de vantagens em relação à evolução natural. 
Em primeiro lugar, a evolução não tem nenhuma meta consciente e 
funciona aleatoriamente – ela produz mais mutações inúteis do que 
úteis, mas nós podemos controlar o processo de forma que seja 
conduzido por adaptações benéficas e ajustes planejados. Em 
segundo lugar, a evolução não tem uma meta, incluindo a 
inteligência – às vezes um meio ambiente pode até mesmo efetuar a 
seleção natural de forma desfavorável à inteligência (já que a 
inteligência consome muita energia). Nós, por outro lado, podemos 
especificamente direcionar esse processo evolucionário na direção 
da inteligência crescente. Em terceiro, para chegar à inteligência, a 
evolução natural precisou inovar em um monte de maneiras 
necessárias para facilitar sua formação – como reelaborar a forma 
como as células produzem energia – enquanto nós podemos 
remover esses passos extras e usar coisas como eletricidade. Não há 
dúvidas de que seremos muito, muito mais rápidos que a evolução 
natural – mas ainda não está claro se seremos capazes de ter tanta 
vantagem em relação à evolução ao ponto de fazer essa uma 
estratégia viável. 
3) Fazer isso tudo um problema do computador, e não nosso. 
Isso ocorre quando os cientistas ficam desesperados e tentam 
programar a prova para que a prova responda a si mesma. Mas pode 
ser o método mais promissor que temos. 
A ideia é construirmos um computador cujas duas maiores 
habilidades sejam fazer pesquisa em Inteligência Artificial e 
codificar mudanças em seu próprio sistema, de forma a permitir não 
só que aprenda mas que aprimore sua própria arquitetura. Nós 
ensinamos computadores a serem cientistas de computadores de 
forma que possam impulsionar seu próprio desenvolvimento. E esse 
será seu principal trabalho: descobrir como tornar a si mesmos mais 
inteligentes. Falaremos mais a respeito disso a seguir. 
Tudo isso pode acontecer em breve 
Progressos rápidos no hardware e na experimentação inovativa com 
software estão acontecendo simultaneamente, e a IAA (Inteligência 
Artificial Ampla) pode surgir entre nós rapidamente e 
inesperadamente por duas grandes razões: 
1) O crescimento exponencial é enorme e o que parece ser um passo 
de tartaruga no progresso pode rapidamente tornar-se uma abrupta 
escalada. Essa animação ilustra muito bem o conceito: 
Fonte 
2) Quando se trata de software, o progresso pode parecer lento, mas 
então uma epifania pode instantaneamente mudar a taxa de 
desenvolvimento (da mesma forma que a ciência, durante o tempo 
em que achamos que o universo girava em torno da Terra, teve 
dificuldades de calcular como o universo funcionava, mas então a 
descoberta de que nosso sistema era heliocêntrico repentinamente 
fez tudo mais fácil). Ou, quando se trata de um computador que 
aprimora a si mesmo, isso pode parecer algo distante mas na 
verdade pode bastar um só ajuste no sistema para que ele se torne 
mil vezes mais eficiente e acelere rapidamente em direção à 
inteligência humana. 
 
A ESTRADA DA IAA PARA A SA 
 
Em determinado ponto, teremos chegado à IAA: computadores com 
inteligência ampla no nível humano. Seremos uma turma de pessoas 
e computadores vivendo juntos em igualdade. 
Opa, na verdade não. 
http://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-automation
O lance é que uma IAA com nível de inteligência e capacidade 
computacional igual a um ser humano poderá ter vantagens 
significativas em relação aos humanos, tais como: 
HARDWARE: 
 Velocidade. Os neurônios do cérebro funcionam no máximo 
a 200 Hertz em suas atividades, enquanto os 
microprocessadores de hoje (que são muito mais lentos do 
que serão quando chegarmos à IAA) funcionam a 2 
GigaHertz – ou seja, 10 milhões de vezes mais rápidos do 
que nossos neurônios. E o sistema de comunicação interna 
do cérebro humano, em que as informações podem se 
mover cerca de 120 metros por segundo, foram 
vergonhosamente superados pela capacidade de os 
computadores comunicarem-se oticamente à velocidade da 
luz. 
 Tamanho e armazenamento. O cérebro humano tem o 
tamanho limitado pela forma de nossos crânios, e não 
poderia se tornar maior de qualquer forma, ou o sistema 
interno de comunicação a 120 m/s levaria muito tempo para 
chegar de uma estrutura cerebral até outra. Computadores 
podem expandir qualquer tamanho físico, permitindo a 
adição de muito mais hardware apto a funcionar, de uma 
memória de trabalho muito maior (RAM), e de uma memória 
de longo prazo (armazenamento em hd) que pode ser muito 
superior tanto em capacidade e precisão em relação à nossa. 
 Confiabilidade e durabilidade. Não apenas a memória de 
um computador será mais precisa. Os transistores do 
computador serão mais precisos do que os neurônios 
biológicos, e eles terão menores chances de se deteriorar (e 
podem ser reparados ou substituídos se isso ocorrer). O 
cérebro humano também se torna fatigado facilmente, 
enquanto computadores podem funcionar sem parar, em 
performance de pico, por 24 horas durante os 7 dias da 
semana. 
SOFTWARE: 
 Editabilidade, capacidade de upgrade, e uma maior gama 
de possibilidades. Diferente do cérebro humano, o software 
de um computador pode receber atualizações e correções e 
pode ser facilmente testado. O upgrade pode também 
abranger áreas nas quais o cérebro humano é pouco 
eficiente. O software da visão humana é formidavelmente 
avançado, enquanto sua capacidade de engenharia complexa 
é bem reduzida. Os computadores poderão equiparar a 
visão humana mas também se tornar igualmente otimizados 
em engenharia e em qualquer outra área. 
 Capacidade coletiva. Os humanos superam todas as outras 
espécies quando se trata de criar uma vasta inteligência 
coletiva. Começando com o desenvolvimento da linguagem 
e com a formação de grandes e densas comunidades, 
passando pela invenção da escrita e da imprensa, e agora 
chegando a uma intensificação dessa habilidade por 
meio de ferramentas como a internet, a inteligência coletiva 
da humanidade é uma das principais razões pelas quais 
fomos capazes de estar tão à frentede outras espécies. E os 
computadores serão muito melhores do que somos. Uma 
rede mundial de Inteligências Artificiais rodando um 
programa em particular pode regularmente sincronizar a si 
mesma para que tudo o que um computador aprender seja 
instantaneamente carregado em todos os outros 
computadores. O grupo pode também estabelecer uma meta 
em conjunto, pois não haverá opiniões contrárias e 
motivações escusas e interesses egoístas, como temos na 
população humana [10]. 
A Inteligência Artificial, que provavelmente chegará à IAA ao ser 
programada para aprimorar a si mesma, não verá “o nível de 
inteligência humana” como um importante marco (é apenas um 
marco relevante do nosso ponto de vista) e não terá nenhum motivo 
para interromper seu desenvolvimento em nosso nível. E tendo em 
vista as vantagens que mesmo uma IAA equiparável ao ser humano 
terá sobre nós, é bem óbvio que ela atingirá a inteligência humana 
por um breve instante antes de acelerar na direção do reino da 
inteligência superior à humana. 
Isso nos chocará quando acontecer, e o motivo é que da nossa 
perspectiva, (A) enquanto a inteligência de diferentes tipos de 
animais varia, a principal característica da qual estamos cientes a 
respeito de qualquer inteligência animal é de que todas elas estão 
muito abaixo da nossa, e (B) vemos os seres humanos mais 
inteligentes como MUITO mais inteligentes do que o mais idiota dos 
humanos. Funciona mais ou menos assim: 
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/distortedai.jpg
Então a medida em que uma AI acelera sua escalada de inteligência 
na nossa direção, nós a veremos como se simplesmente estivesse 
tornando-se mais inteligente, para os padrões de um animal. Então, 
quando ela atingir o nível mais baixo da capacidade humana (Nick 
Bostrom usa o termo “o idiota da vila”), será como “Oh, é como um 
humano idiota, que fofo!”. Ocorre que, no grande espectro de 
variação da inteligência, todos os humanos, do idiota da vila até 
Einstein, estão situados em uma região de abrangência bem pequena 
– então logo depois de atingir o nível de inteligência de um idiota e 
ser declarada uma IAA, a Inteligência Artificial repentinamente será 
mais inteligente que Einstein e não saberemos o que nos atropelou: 
 
E o que acontecerá… depois disso? 
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/realidade.jpg
UMA EXPLOSÃO DA INTELIGÊNCIA 
Espero que você tenha curtido a leitura normal, pois aqui é quando 
esse tema fica anormal e assustador, e vai ficar assim a partir daqui. 
Quero fazer uma pausa para lembrar a você que cada coisa que 
estou dizendo é real – ciência real e previsões reais do futuro 
obtidas de um grande grupo de cientistas e pensadores respeitáveis. 
Apenas continue lembrando disso. 
De qualquer modo, como disse antes, a maioria dos atuais modelos 
pelos quais chegamos a uma IAA consiste em usar o auto-
aprimoramento da Inteligência Artificial. E uma vez que tal sistema 
torna-se uma IAA, mesmo os sistemas que foram construídos e 
cresceram através de métodos que não envolvem o auto-
aprimoramento serão inteligentes o suficiente para começar o auto-
aprimoramento se quiserem [3] 
E aqui é onde chegamos a um conceito meio tenso: auto-
aprimoramento recursivo. Ele funciona assim: 
Um sistema de Inteligência Artificial em certo nível – digamos o 
nível do idiota da vila – é programado com o objetivo de aprimorar 
sua própria inteligência. Uma fez feito isso, ele é mais inteligente – 
talvez nesse ponto ao nível de Einstein – e agora ele trabalhará para 
aprimorar sua inteligência com seu intelecto no nível de Einstein, e 
dessa vez é mais fácil e é feito em saltos mais largos. Esses saltos o 
tornam muito mais inteligente que um ser humano, permitindo que 
dê saltos ainda maiores. À medida em que os saltos tornam-se cada 
vez maiores e ocorrem mais rapidamente, a IAA alavancará sua 
escalada de inteligência e logo atingirá o nível superinteligente de 
um sistema SA. Isso é denominado explosão da inteligência [11] e é o 
exemplo mais extremo da Lei dos Retornos Acelerados. 
Há alguma discussão sobre o quão cedo uma Inteligência Artificial 
atingirá o nível de inteligência amplo em nível humano – o ano 
médio resultante de uma pesquisa com centenas de cientistas sobre 
o que eles acreditavam ser o mais provável de atingirmos a IAA é 
2040 [12] – são apenas 25 anos a contar de agora, o que não parece 
ser muito extremo quando você considera que muitos dos 
especialistas desse campo de estudo acreditam que é provável que a 
progressão do IAA para o SA aconteça muito rápido. O seguinte 
cenário pode ocorrer: 
Levou décadas para os primeiros sistemas de Inteligência Artificial 
chegarem ao nível mais baixo de inteligência humana, mas isso 
finalmente aconteceu. Um computador agora é capaz de entender o 
mundo ao seu redor tão bem quanto uma criança de 4 anos. De 
repente, uma hora após chegar a esse marco, o sistema formula a 
grande teoria da física que unifica a teoria geral da relatividade com 
a mecânica quântica, algo que nenhum humano até então conseguiu 
fazer. 90 minutos após isso, a Inteligência Artificial torna-se uma 
Superinteligência Artificial, 170 mil vezes mais inteligente que um 
ser humano. 
Uma Superinteligência dessa magnitude é algo que você nem mesmo 
remotamente consegue conceber, não mais do que uma abelha 
consegue conceber na sua cabeça e Economia Keynesiana. Em nosso 
mundo, ser inteligente significa ter um QI de 130, e ser idiota 
significa ter um QI de 85: não temos uma palavra para um QI de 
12.952. 
O que aprendemos a partir do domínio humano sobre a Terra 
evidencia uma regra clara: com inteligência vem também o poder. O 
que significa que uma Superinteligência Artificial, quando a 
criarmos, será o mais poderoso ser na história da vida na Terra, e 
todas as coisas vivas, incluindo humanos, estarão totalmente a seus 
pés – e isso pode acontecer nas próximas décadas. 
Se nossos pobres cérebros foram capazes de inventar o wifi, então 
uma coisa 100 ou 1.000 ou 1 bilhão de vezes mais inteligente que 
nós não terá problemas em posicionar cada átomo do mundo da 
forma que desejar, a qualquer momento – tudo o que consideramos 
como mágica, cada poder que imaginamos como sendo de um Deus 
supremo será uma atividade tão mundana para uma 
Superinteligência Artificial quanto desligar a luz de uma sala é para 
nós. Criar a tecnologia para reverter o envelhecimento humano, 
curar uma doença, acabar com a fome e inclusive extinguir a 
mortalidade, reprogramar o clima para proteger o futuro da vida na 
Terra – tudo isso se tornará possível. Também será possível o 
imediato fim de toda a vida na Terra. Até onde podemos ver, se uma 
Superinteligência Artificial tornar-se verdade, haverá um Deus 
onipotente na Terra – e a questão mais importante para nós é: 
SERÁ UM DEUS BOM? 
 
Leia o terceiro texto da série. 
 
A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 3 
 
Por Tim Urban - 
 
26 de agosto de 2015 
 
 [Nota do tradutor: esta é a terceira parte do perturbador artigo de 
Tim Urban, traduzido do texto original com autorização do autor. 
Para compreender esta terceira parte, você precisa ler a primeira e 
a segunda. Vale MUITO a pena, isso eu garanto!] 
“Nós podemos ter diante de nós um problema extremamente difícil 
com um prazo desconhecido para resolvê-lo, e do qual possivelmente 
todo o futuro da humanidade depende” – Nick Bostrom 
Bem-vindo à Parte 3 da série “espere, como é possível que isso o que 
estou lendo não esteja sendo debatido por todo mundo ao meu 
redor?”. 
Nas partes 1 e 2 apresentei o assunto de modo inocente o bastante, 
à medida em que abordamos a Inteligência Artificial Superficial, ou 
IAS (Inteligência Artificial especializada em uma única tarefa, como 
montar rotas para seu automóvel ou jogar xadrez), e como ela já 
está ao nosso redor no mundo atual. Depois nós examinamoscomo 
é um enorme desafio partir da IAS e chegar na Inteligência Artificial 
Ampla, ou IAA (Inteligência Artificial que é pelo menos tão 
intelectualmente capaz quanto um humano, em termos gerais), e 
discutimos por que a taxa exponencial de progresso científico que 
testemunhamos no passado sugere que a IAA pode não estar tão 
distante quanto parece. Na parte 2 terminei agredindo você com o 
fato de que, assim que nossas máquinas atingirem o nível de 
inteligência humana, elas poderão imediatamente fazer isso: 
 
http://ano-zero.com/author/timurban/
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://ano-zero.com/ai1/
http://ano-zero.com/ai2/
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img1-3.jpg
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img2-3.jpg
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img3-3.jpg
 
Isso nos deixa olhando para a tela, confrontando esse poderoso 
conceito de uma Superinteligência Artificial, ou SA (inteligência 
artificial que é muito mais esperta do que qualquer humano sem 
exceção), desenvolver-se possivelmente enquanto você ainda está 
vivo, e tentando descobrir qual emoção supostamente deveríamos 
sentir quando pensamos a respeito disso. [1] 
Antes de nos aprofundarmos no tema, vamos lembrar o que 
significaria para uma máquina ser superinteligente. 
Uma distinção fundamental é a diferença entre superinteligência em 
termos de velocidade e em termos de qualidade. Frequentemente, o 
primeiro pensamento que ocorre a alguém quando imagina 
computadores super espertos é uma máquina tão inteligente quanto 
um ser humano mas que pode pensar muito, muito mais rápido [2] – 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img4-3.jpg
as pessoas pensam numa máquina que pensa como um ser humano, 
mas um milhão de vezes mais rápido, que pode resolver em cinco 
minutos um problema que um ser humano levaria uma década para 
solucionar. 
Isso parece impressionante, e uma SA realmente pensaria muito 
mais rápido do que um ser humano – mas a verdadeira distinção 
entre ela e nós seria uma vantagem de inteligência em termos 
de qualidade, o que é algo completamente diferente. O que faz os 
humanos muito mais aptos intelectualmente do que 
os chipanzés não é uma diferença na velocidade de seu pensamento 
– é que o cérebro humano contém um número de módulos 
cognitivos sofisticados que permitem coisas como representações 
linguísticas complexas, planejamento a longo prazo ou 
argumentação abstrata – coisas que os chipanzés não conseguem 
fazer. Acelerar os processos cerebrais de um chipanzé em mil vezes 
não o alçaria ao nosso nível – mesmo com uma década para pensar, 
ele não seria capaz de descobrir como criar uma ferramenta 
personalizada ou montar um modelo intrincado, algo que um 
humano pode realizar em poucas horas. Há um mundo inteiro de 
funções cognitivas tipicamente humanas que um chipanzé 
simplesmente jamais poderia desenvolver, não importa por quanto 
tempo ele tentasse. 
Mas não é só que o chimpanzé não pode fazer o que podemos, o que 
ocorre é que seu cérebro é incapaz de apreender até mesmo que 
esse mundo inteiro de funções cognitivas existem – um chimpanzé 
pode se familiarizar com o que um ser humano é e o que um 
arranha-céu é, mas ele nunca será capaz de entender que um 
arranha-céu é construído por seres humanos. Em seu mundo, tudo o 
que é muito grande é parte da natureza, ponto final, e não apenas 
está além do seu alcance construir um arranha-céu, está além do seu 
alcance perceber que alguém pode construir um arranha-céu. Esse é 
o resultado de uma pequena diferença de inteligência em termos de 
qualidade. 
http://ano-zero.com/o-ser-humano-e-mau/
E no esquema do espectro de inteligência que estamos falando hoje, 
ou mesmo no muito inferior espectro de inteligência que há entre as 
criaturas biológicas, a distância de inteligência entre um chimpanzé 
e um humano é minúscula. Eu ilustrei o espectro de capacidade 
cognitiva biológica usando uma escadaria: [3] 
 
Para compreender o quão grande seria uma máquina 
superinteligente, imagine uma delas no degrau verde escuro que 
está a dois degraus acima do ser humano na escadaria. Essa 
máquina seria apenas ligeiramente superinteligente, mas sua 
capacidade de ampliar sua cognição acima de nós seria tão grande 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img5-3.jpg
quanto a distância chimpanzé-humano que acabamos de descrever. 
E tal qual a incapacidade do chimpanzé em assimilar que arranha-
céus podem ser construídos, nós jamais seremos capazes de até 
mesmo compreender as coisas que uma máquina no degrau verde 
escuro pode fazer, mesmo se a máquina tentasse explicar a nós – e 
nem vamos falar sobre sermos capazes de fazer tal coisa. E isso é 
apenas dois degraus acima de nós. Uma máquina no penúltimo 
degrau dessa escadaria seria para nós assim como somos para as 
formigas – ela tentaria por anos nos ensinar um mero lampejo do 
que ela sabe e essa tentativa seria inútil. 
Mas o tipo de superinteligência de que estamos falando hoje é algo 
muito além de qualquer coisa nesta escadaria. Em uma explosão da 
inteligência (em que quanto mais inteligente a máquina fica mais ela 
é capaz de ampliar sua própria inteligência, até ela voar escadaria 
acima) uma máquina pode levar anos para ascender o degrau do 
chimpanzé para o degrau acima, mas talvez leve apenas horas para 
pular um degrau assim que estiver no degrau verde escuro acima de 
nós, e quando estiver dez degraus acima de nós, ela pode dar pulos 
de quatro degraus a cada segundo que passa. E é por isso que 
precisamos perceber que é realmente possível que, logo após ser 
divulgada a notícia sobre a primeira máquina que atingiu o nível de 
inteligência humana, poderemos estar encarando a realidade de 
coexistirmos na Terra com uma coisa que está no seguinte degrau 
da escadaria (ou talvez um milhão de vezes mais alto): 
 
E já que estabelecemos ser uma atividade inútil tentar compreender 
o poder de uma máquina que está a apenas dois degraus acimas de 
nós, vamos concretamente estabelecer de uma vez por todas 
que não há forma de saber o que uma Superinteligência Artificial 
faria ou quais seriam as consequências disso para nós. Qualquer 
um que acha que pode saber essas coisas simplesmente não 
compreendeu o que uma superinteligência significa. 
A evolução fez o cérebro biológico evoluir lentamente e 
gradualmente ao longo de centenas de milhões de anos, e nesse 
aspecto, se a humanidade der nascimento a uma máquina com 
superinteligência, estaremos turbinando dramaticamente a 
evolução. Ou talvez isso seja parte da evolução – talvez a forma 
como a evolução funcione é que a inteligência engatinha e 
prossegue cada vez mais até atingir o nível em que é capaz de criar 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img6-3.jpg
máquinas superinteligentes, e nesse nível é como um gatilho que 
aciona uma explosiva e mundial mudança nas regras do jogo que 
determinam um novo futuro para todas as coisas vivas: 
 
 
E por razões que discutiremos mais tarde, uma grande parte da 
comunidade científica acredita que não é uma questão de saber se 
iremos apertar esse gatilho, mas sim de quando. É o tipo de 
informação perturbadora. 
Então onde isso nos deixa? 
Bem, ninguém no mundo, especialmente eu, pode dizer a você o que 
acontecerá quando apertarmos esse gatilho. Mas Nick Bostrom, 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img7-3.jpg
filósofo da Universidade de Oxford e especialista em Inteligência 
Artificial, acredita que poderemos dividir todos os possíveis 
cenários futuros em duas amplas categorias. 
Em primeiro lugar,olhando para a história, podemos ver que a vida 
funciona dessa maneira: uma espécie surge, existe por algum 
tempo, e após certo período, inevitavelmente, ela acabará entrando 
em extinção e saindo da estrada da vida em nosso planeta: 
 
 
“Todas as espécies em algum momento se extinguem” – essa é uma 
regra tão confiável ao longo da história quanto tem sido a regra 
“todos os humanos em algum momento morrem”. Até agora, 99,9% 
das espécies saíram da estrada da vida, e parece bem claro que se 
uma espécie continua trafegando nessa estrada, é apenas questão de 
tempo antes que seja derrubada por outra espécie, por uma rajada 
de vento da natureza ou por um asteróide que faz tremer a estrada. 
Bostrom chama a extinção de um estado atrativo – um lugar para o 
qual todas as espécies tendem a ir e da qual jamais retornam. 
E enquanto a maioria dos cientistas com os quais me deparei 
reconhecem que uma Superinteligência Artificial teria a capacidade 
de enviar os seres humanos para a extinção, muitos acreditam que, 
usadas beneficamente, as habilidades da Superinteligência Artificial 
poderiam ser empregadas para levar os indivíduos humanos, e 
todas as espécies como um conjunto, para um segundo estado 
atrativo – a imortalidade das espécies. Bostrom acredita que a 
imortalidade das espécies é um estado tão atrativo quanto a 
extinção das espécies, isto é, se conseguirmos chegar lá, nós 
estaremos protegidos da extinção para sempre – teremos 
conquistado a mortalidade e conquistado o acaso. Então mesmo se 
todas as espécies até agora tenham saído da estrada da vida e 
tomado um desvio que as leva até a terra da extinção, Bostrom 
acredita que há dois desvios da estrada da vida e apenas acontece 
que até o momento nada no planeta foi inteligente o suficiente para 
descobrir como se desviar para o outro lado, o da imortalidade. 
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img9-3.jpg
Se Bostrom e outros pesquisadores estiverem certos (e por tudo o 
que tenho lido parece que podem estar), nós temos dois fatos bem 
chocantes para assimilar: 
1) O advento de uma Superinteligência irá, pela primeira vez, 
abrir a possibilidade para uma espécie animal chegar na terra da 
imortalidade; 
2) O advento de uma Superinteligência terá um impacto tão 
inconcebivelmente dramático que é provável que empurre a raça 
humana para fora da estrada da vida, em uma ou em outra 
direção. 
Pode muito bem ser possível que, quando a evolução apertar esse 
gatilho, ela encerre permanentemente a relação dos seres humanos 
com a estrada da vida e crie um novo mundo, com ou sem seres 
humanos. 
Parece que a única pergunta que atualmente um ser humano deveria 
estar fazendo é:quando nós vamos apertar esse gatilho e para qual 
lado da estrada da vida nós iremos quando isso acontecer? 
Ninguém no mundo sabe com certeza a resposta para nenhuma das 
duas partes dessa questão, mas muitas das pessoas mais 
inteligentes dedicaram décadas a pensar a respeito. E nós iremos 
passar as próximas partes deste artigo explorando o que essas 
pessoas concluíram a respeito. 
___________ 
VAMOS COMEÇAR COM A PRIMEIRA PARTE DA QUESTÃO:QUANDO 
NÓS IREMOS APERTAR ESSE GATILHO? 
Ou seja, quanto tempo temos até que a primeira máquina alcance a 
superinteligência? 
Não é nenhuma surpresa que as opiniões variam grandemente e esse 
é um debate acalorado entre cientistas e pensadores. Muitos, como 
o professor Vernor Vinge, o cientista Ben Goertzel, o co-fundador da 
Sun Microsystems Bill Joy, ou o famoso inventor e futurista Ray 
Kurzweil, concordam com o especialista em aprendizado 
computacional Jeremy Howard quando ele apresenta este gráfico 
durante um TED Talk: 
 
Essas pessoas aderem a crenças de que isso vai acontecer logo – de 
que o crescimento exponencial da tecnologia está acontecendo e 
que o aprendizado computacional, embora apenas esteja 
engatinhando neste momento entre nós, irá passar a toda 
velocidade por nós dentro das próximas poucas décadas. 
Outros, como o co-fundador da Microsof, Paul Allen, o psicólogo e 
pesquisador Gary Marcus, o cientista computacional da New York 
University Ernest Davis, e o empreendedor tecnológico Mitch Kapor, 
acreditam que pensadores como Kurzweil estão subestimando 
enormemente a magnitude do desafio e acreditam que não estamos 
na verdade assim tão perto do gatilho. 
https://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
http://goertzel.org/TenYearsToTheSingularity.pdf
http://archive.wired.com/wired/archive/8.04/joy.html
http://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil
http://en.wikipedia.org/wiki/Predictions_made_by_Ray_Kurzweil
http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn?language=en
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/
http://www.newyorker.com/tech/elements/hyping-artificial-intelligence-yet-again
http://www.aaai.org/ojs/index.php/aimagazine/article/view/568
http://longbets.org/1/
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img10b-3.jpg
O time de Kurzweil rebateria que a única coisa que está sendo 
subestimada é o crescimento exponencial da tecnologia, e eles 
comparam os céticos àqueles que olhavam o lento crescimento da 
internet em 1985 e argumentavam que não havia maneira de que 
isso representasse algo impactante no futuro próximo. 
O time dos céticos pode argumentar de volta que o progresso 
necessário para haver avanços na inteligência artificial também 
cresce exponencialmente, e com maior força, a cada etapa 
subsequente, e isso irá cancelar a natureza tipicamente exponencial 
do progresso tecnológico. E assim por diante. 
Um terceiro time, que inclui Nick Bostrom, acredita que nenhum dos 
outros dois times têm qualquer base para ter certeza sobre a linha 
do tempo e reconhece que (A) isso pode acontecer no futuro 
próximo e (B) não há garantia nenhuma a respeito, de modo que 
pode levar muito mais tempo. 
Há ainda outros que, como o filósofo Hubert Dreyfus, acreditam que 
esses outros três times são ingênuos em acreditar que existe um 
gatilho, e argumentam que o mais provável é que a 
Superinteligência Artificial jamais seja atingida. 
Então o que você obtém quando coloca todas essas opiniões juntas? 
Em 2013, Vincent C. Müller e Nick Bostrom dirigiram uma pesquisa 
em que perguntaram a centenas de especialistas em inteligência 
artificial em uma série de conferências a seguinte questão: “Para os 
efeitos desta questão, presuma que a atividade científica humana 
continue sem significativas interrupções. Em que anos você antevê 
10%, 50% e 90% de probabilidade de surgir uma Inteligência 
Artificial de Nível Humano (IANH) entre nós?” Foi solicitado que 
escolhessem um ano de forma otimista (um ano em que acreditavam 
que havia 10% de chance de termos uma IANH), uma estimativa 
realista (um ano em que acreditavam haver 50% de probabilidade de 
http://www.technologyreview.com/view/425818/kurzweil-responds-dont-underestimate-the-singularity/
http://www.amazon.com/gp/product/0199678111/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0199678111&linkCode=as2&tag=wabuwh00-20&linkId=LBOTX2G2R72P5EUA
http://www.amazon.com/gp/product/0262540673/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0262540673&linkCode=as2&tag=wabuwh00-20&linkId=ZHBAVUQOM6SIGYHG
surgir uma IANH – ou seja, depois desse ano eles acreditavam que 
era mais provável termos uma IANH do que não termos), e uma 
estimativa segura (o ano mais próximo em que podem dizer que há 
90% de certeza de que teremos uma IANH). Reunidas todas as 
respostas, estes foram os resultados [2]: 
Ano otimista médio (10% de probabilidade): 2022 
Ano realista médio (50% de probabilidade): 2040 
Ano pessimistamédio (90% de probabilidade): 2075 
Então o participante médio pensa que é mais provável que 
improvável que tenhamos uma Inteligência Artificial de Nível 
Humano vinte e cinco anos a contar de agora. A resposta média de 
90% de chance em 2075 significa que se você é um adolescente 
neste momento, segundo o participante médio da pesquisa e metade 
dos especialistas em Inteligência Artificial, é quase certo que uma 
IANH acontecerá durante seu tempo de vida. 
Um outro estudo, conduzido recentemente pelo autor James Barrat 
na Conferência Anual sobre Inteligência Artificial de Ben Goertzel’s, 
deixou de lado os percentuais e simplesmente perguntou quando os 
participantes da Conferência achavam que a IANH surgiria – em 
2030, 2050, 2100, depois de 2100 ou nunca. Esses são os 
resultados: [3] 
Em 2030: 42% dos participantes 
Em 2050: 25% 
Em 2100: 20% 
Após 2100: 10% 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Nunca: 2% 
Respostas bem parecidas com os resultados de Müller e Bostrom. Na 
pesquista de Barrat, mais de dois terços dos participantes 
acreditavam que a Inteligência Artificial de Nível Humano estará 
entre nós em 2050 e menos da metade deles previu uma IANH 
dentro dos próximos quinze anos. Também é significativo que 
apenas 2% daqueles que participaram da pesquisa não acreditam 
que a Inteligência Artificial de Nível Humano seja parte de nosso 
futuro. 
Mas a Inteligência Artificial de Nível Humano não é o gatilho, e sim 
a Superinteligência. Então quando os especialistas acreditam que 
atingiremos a Superinteligência Artificial? 
Müller e Bostrom também perguntaram aos especialistas o quão 
provável acreditam que chegaremos à Superinteligência Artificial 
assim que atingirmos a Inteligência Artificial de Nível Humano: A) 
dentro de dois anos após atingirmos a IANH (isto é uma quase que 
imediata explosão de inteligência), e B) dentro dos próximos 30 
anos. Estes são os resultados [4]: 
A resposta média estabelece ser 10% provável que ocorra uma 
transição rápida (2 anos), e 75% que ocorra uma transição de 30 
anos ou pouco menos. 
Com esses dados não sabemos qual tempo de transição a resposta 
média dos participantes consideraram como 50% provável, mas para 
o propósito especulativo, baseado nas duas respostas acima, vamos 
estimar que eles diriam 20 anos. Então a opinião média – aquela 
bem no centro do mundo dos especialistas em Inteligência Artificial 
– acredita que a estimativa mais realista para quando apertaremos o 
gatilho da Superinteligência Artificial é [a predição de 2040 para a 
IANH + nossas predição estimada de uma transição de 20 anos da 
IANH para a Superinteligência] = 2060. 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
 
 
Claro, todas as estimativas acima são especulativas, e elas apenas 
representam a opinião média da comunidade de especialistas em 
Inteligência Artificial, mas isso nos diz que uma grande parte das 
pessoas que conhecem o principal sobre esse assunto concordam 
que 2060 é uma estimativa bem razoável para a chegada de uma 
Superinteligência Artificial potencialmente transformadora do 
mundo. São apena 45 anos a contar de agora. 
CERTO, AGORA E QUANTO A SEGUNDA PARTE DA QUESTÃO 
ACIMA: QUANDO APERTARMOS O GATILHO, EM QUE LADO DA 
ESTRADA DA VIDA ACABAREMOS? 
A Superinteligência deterá um tremendo poder – e a questão crítica 
para nós é: 
Quem ou o que estará no controle desse poder, qual será a sua 
motivação? 
A resposta para essa pergunta determinará se a Superinteligência é 
um progresso inacreditavelmente maravilhoso, um inconcebível e 
terrível desenvolvimento, ou algo entre ambos. 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img11-3.jpg
Claro, a comunidade de especialistas também está metida em um 
debate acalorado em relação à resposta a essa questão. A pesquisa 
de Müller e Bostrom pediu aos participantes para estimar a 
probabilidade dos possíveis impactos que a Inteligência Artificial de 
Nível Humano teria na humanidade, e descobriram que a resposta 
média é que há 52% de probabilidade de que ela seja boa ou 
extremamente boa e 31% de chance de que seja má ou 
extremamente má. Para uma Inteligência Artificial de Nível Humano 
relativamente neutra, a probabilidade média é de apenas 17%. Em 
outras palavras, as pessoas que mais sabem a respeito do assunto 
estão bem seguras de que o impacto será enorme. Também é digno 
de nota que esses números se referem ao surgimento da Inteligência 
Artificial de Nível Humano – se a questão fosse sobre a 
Superinteligência Artificial, suponho que a percentagem do impacto 
neutro seria ainda menor. 
Antes que nos aprofundemos nessa parte da questão sobre se será 
algo bom ou mal, vamos combinar as partes “quando vai 
acontecer?” e “será bom ou mal?” que compõem a pergunta em um 
gráfico que representa a percepção dos principais especialistas: 
 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img12-3-copy.jpg
Falaremos sobre a Zona Principal em um minuto, mas primeiro – 
qual é o seu time? Na verdade eu sei qual é, porque é a mesma que a 
minha antes de eu começar a pesquisar esse tema. Eis algumas 
razões pelas quais as pessoas não estão realmente pensando sobre 
esse assunto: 
 Como mencionei na Parte 1, o cinema realmente confunde 
as coisas ao apresentar cenários fantasiosos sobre a 
Inteligência Artificial, fazendo com que achemos que esse 
não é um assunto para ser levado a sério. James Barrat 
compara essa situação à reação que teríamos se em nosso 
futuro o Ministério da Saúde divulgasse um aviso sério a 
respeito de vampiros [5]. 
 Devido a uma coisa chamada viés cognitivo, temos muita 
dificuldade em crer que uma coisa é real até que vejamos 
uma prova. Estou certo de que os cientistas computacionais 
de 1988 conversavam com frequência sobre como a internet 
se tornaria provavelmente uma grande coisa, mas as 
pessoas não pensaram realmente que ela iria mudar suas 
vidas até que ela mudasse mesmo suas vidas. Isso em parte 
se deve ao fato de que computadores não podiam fazer 
muitas coisas em 1988, então as pessoas olhavam para o 
computador e pensavam “Sério? Isso é uma coisa capaz de 
mudar vidas?” A imaginação deles estava limitada por 
aquilo que a experiência pessoal lhes ensinou sobre o que 
um computador era, e isso tornou muito difícil imaginar 
claramente o que os computadores poderiam se tornar. A 
mesma coisa está acontecendo agora com a Inteligência 
Artificial. Nós ouvimos dizer que a coisa será grande, mas 
porque ela ainda não aconteceu, e temos uma vivência no 
mundo atual com Inteligências Artificiais relativamente 
impotentes, temos muita dificuldade em realmente acreditar 
que isso irá mudar nossas vidas dramaticamente. E é contra 
esses vieses que os especialistas estão lutando na medida 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
em que estão desesperadamente tentando chamar nossa 
atenção através do barulho coletivo da auto-absorção. 
 E mesmo se acreditamos nisso, quantas vezes hoje você 
pensou sobre o fato de que gastará a maior parte da 
eternidade não existindo? Não muitas, certo? Mesmo que 
esse seja um fato muito mais importante do que qualquer 
outra coisa que você está fazendo hoje. Isso se deve ao fato 
de que nossos cérebros estão normalmente focados nas 
pequenas coisas da vida cotidiana, não importa o quão 
maluca seja uma situação a longo prazo que diz respeito a 
nós. É assim que somos programados. 
Uma das metas dessa série de artigos é tirar você da Zona do Prefiro 
Pensar em Outras Coisas e colocar você na zona dos especialistas, 
ainda que você fique na exata intersecção das duas linhas 
pontilhadas no quadrado acima, a zona da total incerteza. 
Durante minha pesquisa, eu cruzei com dúzias de opiniões distintas 
sobre esse assunto, masrapidamente percebi que a opinião da 
maioria das pessoas cai em algum lugar daquilo que chamei de Zona 
Principal, e em particular, mais que três quartos dos especialistas 
caem em subzonas dentro da Zona Principal: 
Nós daremos um mergulho profundo nessas diversas zonas. Vamos 
começar com a mais divertida: 
PORQUE O FUTURO PODE SER NOSSO MAIOR SONHO 
À medida em que eu estudava o mundo da Inteligência Artificial, 
descobri um número surpreendentemente grande de pessoas nessa 
zona indicada pelo quadrado azul, o Canto Confiante: 
 
As pessoas no Canto Confiante estão muito entusiasmadas. Elas tem 
suas visões situadas no lado divertido da estrada da vida e estão 
convictas de que é para lá que estamos indo. Para elas, o futuro será 
tudo o que elas poderiam esperar que fosse, e no tempo certo. 
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img12-4.jpg
O que separa essas pessoas dos outros pensadores sobre os quais 
falamos antes não é seu desejo pelo lado feliz da estrada da vida – é 
sua confiança de que é nesse lado que iremos parar. 
De onde vem essa confiança é algo que se pode discutir. Críticos 
acreditam que ela vem de uma excitação tão cega que essas pessoas 
simplesmente ignoram ou negam as consequências potencialmente 
negativas. Mas elas dizem que é ingênuo invocar cenários 
apocalípticos quando no final das contas a tecnologia tem nos 
ajudado e continuará nos ajudando muito mais do que nos 
prejudicando. 
Iremos analisar ambos os lados, e você poderá formar sua própria 
opinião ao longo da leitura, mas para esta parte do texto, coloque 
seu ceticismo de lado e vamos dar uma boa e profunda olhada no 
que há no lado feliz da estrada da vida – e tentar assimilar o fato de 
que as coisas que você estará lendo podem mesmo acontecer. Se 
você mostrasse a um primitivo caçador-coletor nosso mundo de 
conforto doméstico, tecnologia e infinita abundância, tudo isso 
pareceria como mágica fictícia para ele – e temos que ser humildes 
o suficiente para reconhecer que é possível que uma transformação 
igualmente inconcebível esteja em nosso futuro. 
Nick Bostrom descreve três formas pelas quais uma 
Superinteligência Artificial poderia funcionar: [6] 
 Como um oráculo, que responde a quase todas as questões 
propostas com precisão, incluindo questões complexas a 
que seres humanos não podem facilmente responder, tais 
como: Como posso produzir um motor veicular mais 
eficiente? O Google é um tipo primitivo de oráculo. 
 Como um gênio, que executa qualquer comando de alto 
nível que lhe é dado – Use um montador molecular para 
construir um novo e mais eficiente motor veicular – e depois 
espera pelo próximo comando. 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
 Como soberano, ao qual é atribuída uma tarefa ampla e de 
solução livre, sendo-lhe permitido operar livremente no 
mundo, tomando suas próprias decisões sobre a melhor 
forma de agir – Invente uma forma de transporte humano 
privado que seja mais rápida, mais barata e mais segura do 
que os carros. 
Essas questões e tarefas, que parecem complicadas para nós, 
pareceriam a um sistema superinteligente como se alguém lhe 
pedisse para juntar a caneta que caiu da mesa, o que você faria 
pegando a caneca e colocando de volta na mesa. 
Eliezer Yudkowsky, um morador da Avenida da Ansiedade no 
quadro acima, resumiu isso bem: 
“Não há problemas difíceis, apenas problemas que são difíceis para 
um certo nível de inteligência. Suba só um pouco o nível da 
inteligência e alguns problemas parecerão se transformar de 
“impossíveis” para “óbvios”. Suba um substancial degrau de 
inteligência e todos os problemas se tornarão de solução óbvia. [7] 
Há muitos cientistas, inventores e empreendedores entusiasmados 
habitando o Campo Confiante – mas para um tour pelo lado mais 
brilhante do horizonte da Inteligência Artificial, há uma só pessoa 
que queremos como guia turístico. 
Ray Kurzweil é do tipo polarizador. Em minhas leituras, encontrei 
tudo sobre ele, desde a idolatria a um semideus e às suas ideias até 
um girar de olhos de desprezo por elas. Outros estão em algum 
lugar no meio – autores como Douglas Hofstadter, ao discutir as 
ideias apresentadas pelos livros de Kurzweil, eloquentemente 
descreve que “é como se você pegasse um monte de comida boa e um 
pouco de excremento de cão e misturasse de tal forma que você não 
consegue distinguir o que é bom e o que é ruim” [8] 
http://www.yudkowsky.net/
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Goste você ou não de suas ideias, todos concordam que Kurzweil 
impressiona. Ele começou a inventar coisas como um adolescente e 
nas décadas seguintes ele apresentou várias invenções inovadoras, 
incluíndo o primeiro scanner de mesa, o primeiro scanner que 
converteu texto em voz (permitindo aos cegos lerem textos 
padronizados), o famoso sintetizador de música do Kurzweil (o 
primeiro piano elétrico de verdade), e o primeiro reconhecedor de 
voz de amplo vocabulário produzido em escala comercial. Ele é o 
autor de cinco best-sellers. Ele é conhecido por suas ousadas 
previsões e tem recorde muito bom de tê-las confirmadas – 
incluindo sua previsão no final da década de 1980, uma época em 
que a internet era uma coisa obscura, de que pelo início do próximo 
século ela se tornaria um fenômeno global. Kurzweil tem sido 
chamado de “gênio incansável” pelo The Wall Street Journal, “a 
máquina pensante definitiva” pela Forbes, “o herdeiro legítimo de 
Edson” pela Inc. Magazine, e “a melhor pessoa que conheço quando 
se trata de prever o futuro da inteligência artificial”, por Bill Gates 
[9]. Em 2012, o co-fundador da Google, Larry Page, procurou 
Kurzweil e convidou-o a ser o Diretor de Engenharia da Google [5]. 
Em 2011, ele foi co-fundador da Singularity University, que se situa 
na NASA e é financiada parcialmente pela Google. Nada mal para 
uma só vida. 
Essa biografia é importante. Quando Kurzweil expõe sua visão do 
futuro, ele soa um completo pirado, e a coisa mais maluca é que ele 
não é pirado – ele é um homem extremamente inteligente, 
compreensível e relevante no mundo. Você pode pensar que ele está 
errado sobre o futuro, mas ele não é um idiota. Saber que ele é um 
cara respeitado me faz feliz, porque enquanto eu lia as suas 
previsões sobre o futuro, eu queria muito que ele estivesse certo. E 
você também. Quando você ouvir as previsões de Kurzveil sobre o 
futuro, muitas das quais compartilhadas por outros pensadores do 
Canto Confiante como Peter Diamandis e Ben Goertzel, não é difícil 
entender por que ele tem tantos seguidores entusiasmados – 
http://bigthink.com/endless-innovation/why-ray-kurzweils-predictions-are-right-86-of-the-time
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://singularityu.org/
http://www.diamandis.com/
http://en.wikipedia.org/wiki/Ben_Goertzel
conhecidos como singularitarianos. Isso é o que ele acha que vai 
acontecer: 
LINHA DO TEMPO 
Kurzweil acredita que computadores atingirão o nível de 
inteligência humana em 2029, e lá por 2045 nós não teremos apenas 
Superinteligência Artificial, mas um mundo completamente novo – 
um tempo que ele chama de singularidade. Sua linha de tempo da 
evolução da Inteligência Artificial costumava ser considerada 
ofensivamente exagerada, e ainda é vista assim por muitos [6], mas 
nos últimos 15 anos, o avanço rápido dos sistemas de Inteligência 
Artificial Superficial aproximou o grande mundo dos especialistas 
bem perto da linha do tempo de Kurzweil. Suas previsões ainda são 
um pouco mais ambiciosas do que a resposta média obtida na 
pesquisa de Müller e Bostrom (IAS lá por 2040, SA lá por 2060), mas 
não muito. 
A descrição de Kurzweil para a singularidade de 2045 écaracterizada por três revoluções simultâneas em biotecnologia, 
nanotecnologia e – a revolução mais poderosa – em Inteligência 
Artificial. 
Antes de prosseguirmos, como a nano tecnologia está relacionada 
com quase tudo o que você lerá sobre o futuro da Inteligência 
Artificial, vamos nos dedicar a essa caixa azul por um minuto para 
que possamos falar sobre isso: 
CAIXA AZUL DA NANOTECNOLOGIA 
A nanotecnologia é como chamamos a tecnologia que lida com a 
manipulação da matéria em termos de 1 a 100 nanômetros de 
tamanho. Um nanômetro é um bilionésimo de metro, ou um 
milionésimo de milímetro, e essa faixa de 1 a 100 abrange vírus 
(100 nanômetros), DNA (10 nanômetros) e coisas tão pequenas 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
quanto as moléculas maiores tais como a hemoglobina (5 
nanômetros) e moléculas médias como glucose (1 nanômetro). 
Se/quando nós conquistarmos a nanotecnologia, o próximo passo 
será a habilidade de manipular átomos individuais, que estão 
apenas um nível abaixo de magnitude (algo como 0,1 nanômetros). 
Para entender o desafio que é seres humanos tentando manipular a 
matéria nessa faixa, vamos fazer a mesma coisa em uma escala 
maior. A Estação Espacial Internacional está a 431 quilômetros da 
Terra. Se os humanos fossem gigantes tão grandes que suas cabeças 
ultrapassassem a EEI, eles seriam 250.000 vezes maiores do que são 
agora. Se você fizer a faixa de 1 a 100 nanômetros aumentar de 
tamanho 250.000 vezes, você chega na faixa de 0,25 mm a 2,5 cm. 
Então a nanotecnologia é o equivalente a humanos tão altos quanto 
a EEI tentando descobrir como cuidadosamente construir objetos 
intrincados utilizando materiais entre o tamanho de um grão de 
areia e um globo ocular. Para atingir o nível seguinte – manipular 
átomos individuais – o gigante teria que posicionar cuidadosamente 
objetos que são 1/40 de um milímetro – tão pequenos que um ser 
humano de tamanho normal precisa de um microscópio para vê-los 
[8]. 
A nanotecnologia foi discutida inicialmente por Richard Feynman 
em uma palestra de 1959, quando ele explicou: “Os princípios da 
física, tão longe quanto podemos ver, não são contrários à 
possibilidade de manipularmos as coisas átomo por átomo. Seria, a 
princípio, possível a um físico sintetizar qualquer substância química 
que um químico descrever. Como? Coloque os átomos onde o químico 
diz, e você fará a substância.” É simples assim. Se você descobrir 
como mover moléculas ou átomos individuais, você pode fazer 
literalmente qualquer coisa. 
A nanotecnologia tornou-se um campo sério pela primeira vez em 
1986, quando o engenheiro Eric Drexler estabeleceu suas fundações 
em seu livro inaugural Engines of Creation, mas Drexler sugere que 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
aqueles que desejam aprender mais sobre as modernas ideias em 
nanotecnologia encontrariam mais informações em seu livro de 
2013, Radical Abundance. 
CAIXA AZUL ESCURA DO GRAY GOO 
Nós estamos em um desvio dentro de um desvio. Isso é muito 
divertido. [9] 
De qualquer forma, eu trouxe você aqui porque há essa parte da 
nanotecnologia que é realmente nada divertida e da qual preciso 
falar. Em versões mais antigas da teoria da nanotecnologia, um dos 
métodos propostos para a nanomontagem envolvia a criação de 
trilhões de pequenos nanobots que trabalhariam conjuntamente 
para construir algo. Uma forma de criar trilhões de nanobots seria 
fazer um que poderia se auto-replicar e então deixar o processo de 
reprodução tornar esse único nanobot em dois, esses dois então em 
quatro, quatro em oito, e no dia seguinte teríamos alguns trilhões 
prontos para trabalhar. Esse é o poder do crescimento exponencial. 
Esperto, não é? 
É esperto até que cause um enorme e completo apocalipse mundial 
por acidente. A questão é que o mesmo poder do crescimento 
exponencial que o faz super conveniente para rapidamente criar um 
trilhão de nanobots faz a auto-replicação uma perspectiva 
assustadora. Pois e se esse sistema de cópias falhar, e ao invés de 
interromper a replicação uma vez que se atinge alguns trilhões 
planejados, os nanobots continuarem a se replicar? Os nanobost 
consumiriam todo o material baseado em carbono para alimentar o 
processo de replicação, e infelizmente todas as formas de vida são 
baseadas em carbono. A biomassa da terra contém 10 na 45ª 
potência átomos de carbono. Um nanobot teria 10 na 6ª potência 
átomos de carbono, então 10 na 39ª potência nanobots consumiriam 
toda a vida na Terra, o que ocorreria após 130 replicações (2 na 130 
potência é quase igual a 10 na 39 potência), quando então um 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
oceano de nanobots (esse evento é chamado de Gray Goo) varreria o 
planeta. Os cientistas acham que um nanobot poderia replicar-se em 
100 segundos, o que significa que um simples engano 
inconvenientemente acabaria com toda a vida na Terra em três 
horas e meia. 
Um cenário ainda pior seria se um terrorista de alguma forma 
tivesse em suas mãos a tecnologia de um nanobot e o conhecimento 
para programá-lo, ele poderia criar inicialmente alguns trilhões 
deles e programá-los para silenciosamente levar uma semana para 
se espalhar igualmente ao redor de todo o mundo sem serem 
detectados. Então, eles atacariam a uma só vez, e levaria apenas 90 
minutos para consumirem todas as coisas – e com eles espalhados, 
não haveria jeito de combatê-los [10]. 
Se por um lado essa história de terro tem sido amplamente debatida 
por anos, por outro as boas notícias é que pode ser um exagero – 
Eric Drexler, que cunhou o termo “gray goo”, enviou-me um email 
assim que publiquei esse artigo e falou sobre sua opinião sobre o 
assunto: “as pessoas adoram histórias aterrorizantes, e essa é do 
tipo zumbi – a ideia em si mesmo devora cérebros”. 
Assim que dominarmos a nanotecnologia, poderemos usá-la para 
fazer ferramentas tecnológicas, roupas, comida e uma série de 
produtos relativos à biologia (células sanguíneas artificiais, 
pequenos destruidores de vírus ou células cancerígenas, tecido 
muscular, etc.) – qualquer coisa, na verdade. E em um mundo que 
usa nanotecnologia, o custo de um material não estará mais 
vinculado à sua escassez ou à dificuldade de seu processo 
produtivo, mas sim pelo quão complicada é sua estrutura atômica. 
Em um mundo de nanotecnologia, um diamante pode ser mais 
barato do que uma borracha. 
Ainda não chegamos lá. E não está claro se estamos subestimando, 
ou superestimando o quão difícil será chegar lá. Mas não parecemos 
https://pt.wikipedia.org/wiki/Grey_goo
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
estar muito longe. Kurzweil prevê que chegaremos lá na década de 
2020 [11]. Os governos da Terra sabem que a nanotecnologia pode 
ser um desenvolvimento capaz de abalar o mundo, e eles estão 
investindo bilhões de dólares em pesquisa nanotecnológica (os EUA, 
a União Europeia e o Japão investiram até agora uma soma de 5 
bilhões de dólares) [12]. 
Apenas considere os possíveis cenários se um computador 
superinteligente tiver acesso a um robusto montador em 
nanoescala. Mas a nanotecnologia é algo que nós inventamos, algo 
que estamos para dominar, e já que tudo que podemos fazer é uma 
piada para um sistema de Superinteligência Artificial, temos que 
presumir que esse sistema criaria tecnologias mais poderosas e 
avançadas do que o cérebro humano pode compreender. Por isso, 
quando consideramos o cenário de uma Superinteligência Artificial 
que seja benigna para nós, é quase impossível superestimar o que 
realmente pode acontecer – então se as previsões sobre o futuro da 
Superinteligência Artificial que serão apresentadas parecerem 
exageradas, tenha em mente de que elas podem ser concretizadas 
de modos que nem sequer podemos imaginar. Mais provavelmente, 
nossos cérebros nãosão capazes de prever as coisas que podem 
acontecer. 
 
O QUE A INTELIGÊNCIA ARTIFICIAL PODE FAZER POR NÓS 
 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Fonte 
Municiada com superinteligência e toda a tecnologia que uma 
superinteligência saberia como criar, uma SA provavelmente seria 
capaz de resolver todos os problemas da humanidade. Aquecimento 
global? A Superinteligência Artificial poderia primeiramente 
interromper a emissão de CO2 ao apresentar formas de produzir 
energia muito melhores do que com qualquer combustível fóssil. 
Daí a SA pode criar alguma forma inovadora de remover o excesso 
de CO2 da atmosfera. Câncer e outras doenças? Não é um problema 
para a SA – a medicina será revolucionada além da imaginação. 
Fome mundial? A SA pode usar coisas como nanotecnologia 
para construir carne do nada, que seria molecularmente idêntica à 
carne verdadeira – em outras palavras, seria carne real. A 
nanotecnologia poderia transformar uma pilha de lixo em uma 
http://www.amazon.com/gp/product/0143037889/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0143037889&linkCode=as2&tag=wabuwh00-20&linkId=54Q62R5PYJBEENTP
http://ano-zero.com/wp-content/uploads/sites/4/2015/08/img15-5.jpg
enorme pilha de carne fresca ou outras comidas (as quais não 
precisariam ter sua forma original – imagine um cubo gigante feito 
de maçã) e distribuir toda essa comida ao redor do mundo 
utilizando sistemas de transporte ultra avançados. Claro, isso será 
ótimo para os animais, que não precisariam mais ser mortos pelos 
seres humanos, e uma Superinteligência Artificial poderia fazer um 
monte de outras coisas para salvar espécies em extinção ou mesmo 
trazer de volta espécies extintas ao trabalhar com DNA preservado. 
A Superinteligência Artificial pode até mesmo resolver nossos 
principais problemas mundiais – nossos debates sobre como a 
economia deve ser conduzida e como o comércio mundial deve ser 
facilitado, e pode desvendar até mesmo as questões mais 
espinhosas em filosofia ou ética – tudo isso pode ser incrivelmente 
fácil para uma SA. 
Mas há uma coisa que a Superinteligência Artificial poderia fazer 
por nós que é tão tantalizante que ler sobre isso mudou tudo o que 
eu sabia sobre qualquer coisa: 
A SUPERINTELIGÊNCIA ARTIFICIAL PODERIA NOS PERMITIR 
CONQUISTAR A NOSSA MORTALIDADE. 
Alguns meses atrás, mencionei minha inveja de supostas 
civilizações extraterrestres que conquistaram a sua mortalidade, e 
não imaginava que mais tarde poderia escrever um artigo que me 
fizesse realmente crer que isso é algo que os seres humanos 
poderão fazer dentro do meu tempo de vida. Mas ler sobre 
Inteligência Artificial fará você reconsiderar tudo sobre o qual você 
achava que tinha certeza – incluindo sua noção da morte. 
A evolução não tem nenhum bom motivo para ampliar nossa 
expectativa de vida mais do que já temos agora. Se vivermos o 
tempo suficiente para nos reproduzirmos e criarmos nossos filhos 
até uma idade em que eles podem procriar eles próprios, isso é o 
http://waitbutwhy.com/2014/05/fermi-paradox.html
http://ano-zero.com/morte/
bastante para a evolução – de um ponto de vista evolucionário, 
nossa espécie pode existir com uma expectativa de vida de trinta 
anos, então não há motivos para que mutações tendentes a garantir 
uma vida mais longa fossem favorecidas pelo processo de seleção 
natural. Como resultado, temos o que W. B. Yeats descrevia como 
“uma alma aprisionada em um animal moribundo”. [13] Isso não tem 
graça. 
E porque todo mundo sempre morre, nós vivemos sobre a presunção 
estatística de que a morte é inevitável. Pensamos no processo de 
envelhecer como pensamos no tempo – ambos se movem e não há 
nada que você possa fazer para interrompê-los. Mas essa presunção 
é errada. Richard Feynman escreve: 
“É uma das coisas mais notáveis que em todas as ciências biológicas 
não há nenhuma pista sobre a necessidade da morte. Se você me diz 
nós queremos movimento perpétuo, nós descobrimos leis durante o 
estudo da Física o suficiente para saber que isso ou é absolutamente 
impossível ou as leis da física estão erradas. Mas não há nada na 
biologia até agora que possa indicar a inevitabilidade da morte. Isso 
sugere para mim que ela não é inevitável afinal de contas, e é só 
uma questão de tempo até biólogos descobrirem o que está nos 
causando esse problema e então essa terrível doença universal ou 
temporariedade do corpo humano será curada.” 
O fato é que o envelhecimento não está preso à passagem do tempo. 
O tempo continuará se movendo, mas o envelhecimento não precisa. 
Se você pensar a respeito, isso faz sentido. Todo o processo de 
envelhecimento é o material físico do corpo falhando. Um carro 
começa a falhar ao longo do tempo também – mas seu 
envelhecimento é inevitável? Se você consertar perfeitamente ou 
substituir as partes do carro sempre que uma delas começar a 
falhar, o carro funcionará para sempre. O corpo humano não é 
diferente disso – só é mais complexo. 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Kurzweil fala sobre nanobots inteligentes e conectados via wifi 
circulando em nossa corrente sanguínea e que poderiam realizar 
inúmeras tarefas para garantir a saúde humana, inclusive reparar 
rotineiramente ou substituir células envelhecidas em qualquer parte 
do corpo. Se feito com perfeição, esse processo (ou outro mais 
inteligente a ser criado por uma Superinteligência Artificial), não 
manteria nosso corpo apenas saudável: isso poderia reverter o 
envelhecimento. A diferença entre um corpo de 60 anos e um corpo 
de 30 anos é apenas um conjunto de aspectos físicos que 
poderíamos alterar se tivéssemos a tecnologia. A Superinteligência 
Artificial poderia construir um “restaurador de idade” em que uma 
pessoa com 60 anos entraria e da qual sairia com o corpo e a pele de 
uma pessoa de 30 [10]. 
Mesmo o sempre confuso cérebro pode ser restaurado por algo tão 
inteligente quanto uma Superinteligência Artificial, que poderia 
descobrir como fazer isso sem afetar os dados do cérebro 
(personalidade, memória, etc). Uma pessoa de 90 anos sofrendo de 
demência poderia entrar no “restaurador de idade” e sair em forma 
e pronta para começar uma nova carreira. Isso parece absurdo – mas 
o corpo é só um conjunto de átomos e uma Superinteligência 
Artificial presumivelmente seria capaz de facilmente manipular 
todo o tipo de estrutura atômica – então não é um absurdo. 
Kurzweil então dá um enorme passo adiante. Ele acredita que os 
materiais artificiais serão integrados ao corpo mais e mais à medida 
em que o tempo passa. Inicialmente, órgãos seriam substituídos por 
versões artificiais super-avançadas que funcionariam para sempre 
se jamais falhar. A seguir ele acredita que poderíamos começar a 
redesenhar o corpo – coisas como substituir os glóbulos vermelhos 
por nanobots que podem impulsionar seu próprio movimento, 
eliminando a necessidade de um coração de uma vez por todas. Ele 
até mesmo fala do cérebro e acredita que nós iremos aprimorar 
nossas atividades cerebrais ao ponto em que humanos serão 
capazes de pensar bilhões de vezes mais rápido do que fazem 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
https://www.youtube.com/watch?v=PVXQUItNEDQ
https://www.youtube.com/watch?v=PVXQUItNEDQ
agora, e acessarão informação externas porque os complementos 
cerebrais adicionados ao cérebro serão capazes de se comunicar 
com todas as informações que estão na nuvem. 
As possibilidades para a nova experiência humana são infinitas. Os 
seres humanos separaram o sexo de sua finalidade evolutiva, 
permitindo às pessoas fazerem sexo para se divertir, e não só para 
reproduzir. Kurzweil acredita que seremos capazes de fazer o 
mesmo com a comida. Nanobots se encarregarão de providenciar a 
nutrição perfeitapara nossas células, conduzindo inteligentemente 
qualquer coisa nociva de forma que passe pelo corpo sem afetar 
nada. Uma camisinha para o ato de comer. 
O teórico da nanotecnologia Rober A. Freitas já projetou células 
sanguíneas que, se algum dia forem implementadas no corpo, 
permitirão a um ser humano mergulhar por 15 minutos sem respirar 
– então você pode só imaginar o que uma Superinteligência Artificial 
poderia fazer com nossas capacidades físicas. A realidade virtual 
teria um novo significado: nanobots em nosso corpo poderiam 
suprimir as informações vindas de nossos sentidos e substituí-las 
por outros sinais que nos colocariam inteiramente em um novo 
ambiente, um em que poderíamos ver, ouvir, sentir e cheirar. 
Em algum momento, Kurzweil acredita que os seres humanos 
chegarão ao ponto em que serão inteiramente artificiais [11]; uma 
época em que olharemos para o material biológico e pensaremos em 
como inacreditavelmente primitivo era nós sermos constituídos 
por aquilo; uma época em que leremos sobre os estágios iniciais da 
história humana, quando micróbios ou acidentes ou doenças ou 
quebrar e rasgar poderiam simplesmente matar seres humanos 
contra sua própria vontade; uma época em que a Revolução da 
Inteligência Artificial poderia acabar na fusão entre seres humanos e 
a Inteligência Artificial [12]. É desse jeito que Kurzweil acredita que 
iremos conquistar definitivamente nossa biologia e nos tornar 
indestrutíveis e eternos – essa é sua visão a respeito do outro lado 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
da estrada da vida. E ele está convencido de que chegaremos lá. E 
em breve. 
Você não ficará surpreso ao saber que as ideias de Kurzweil atraem 
críticas significativas. Sua previsão da singularidade em 2045 e a 
subsequente possibilidade de vida eterna para os humanos tem sido 
ironizada como “o arrebatamento dos nerds” ou “design inteligente 
para pessoas com QI 140”. Outros questionam sua linha do tempo 
otimista, ou seu nível de conhecimento do corpo e do cérebro, ou 
sua aplicação do padrão descrito pela Lei de Moore, que é aplicada 
ao progresso em hardware até abranger amplamente outras coisas, 
inclusive software. Para cada especialista que fervorosamente 
acredita que Kurzweil está certo, há provavelmente três que acham 
que ele está bem equivocado. 
Mas o que me surpreende é que a maioria dos especialistas que 
discordam dele não discordam realmente de que tudo o que ele diz 
é possível. Ao ler uma tal arrojada visão do futuro, eu esperava que 
seus críticos dissessem: “Obviamente coisas desse tipo não podem 
acontecer”. Mas ao invés disso eles dizem: “Sim, tudo isso pode 
acontecer se houver uma transição segura para a Superinteligência 
Artificial, mas essa é a parte difícil”. Bostrom, uma das vozes mais 
proeminentes nos prevenindo sobre os perigos da Inteligência 
Artificial, ainda reconhece: 
“É difícil pensar em qualquer problema que a superinteligência não 
possa resolver ou que não possa nos ajudar a resolver. Doença, 
pobreza, destruição ambiental, sofrimentos desnecessários de todos 
os tipos: essas são as coisas que uma superinteligência equipada com 
nanotecnologia avançada seria capaz de eliminar. Além disso, a 
superinteligência poderia nos dar uma expectativa de vida infinita, 
seja parando e revertendo o processo de envelhecimento através do 
uso da nanomedicina, ou nos oferecendo a opção de realizar 
oupload de nós próprios. Uma superinteligência poderia também 
criar oportunidades para nós ampliarmos enormemente nossas 
capacidades emocionais e intelectuais, e ela poderia nos ajudar a 
criar um mundo de experiências altamente atrativas, no qual 
poderíamos devotar nossas vidas ao deleite de jogar, nos relacionar 
com as outras pessoas, ter vivências, crescer pessoalmente e viver 
mais próximos de nossos ideais.” 
Isso é uma citação de alguém que não está no Canto Confiante, mas 
é com isso que me deparei: especialistas que criticam Kurzweil por 
um punhado de motivos mas que não acham que o que ele diz é 
impossível se nós fizermos uma transição segura até a 
Superinteligência Artificial. É por isso que achei as ideias de 
Kurzweil tão contaminantes – porque elas articulam o lado luminoso 
dessa história e porque elas são na verdade possíveis. Se a 
Inteligência Artificial for um bom deus. 
As mais significativas críticas que li a respeito dos pensadores que 
estão no Canto Confiante é que eles podem estar perigosamente 
errados em sua avaliação sobre os aspectos negativos de uma 
Superinteligência Artificial. O famoso livro de Kurzweil, 
A Singularidade está Próxima, tem mais de 700 páginas e dedica 
cerca de 20 para analisar os perigos em potencial. Eu sugeri antes 
que nosso destino quando esse colossal novo poder nascer estará 
nas mãos de quem controlar esse poder e em qual será sua 
motivação. Kurzweil responde essas duas questões da seguinte 
forma: 
“A Superinteligência Artificial emergirá de muitos esforços distintos e 
estará profundamente integrada à infraestrutura de nossa 
civilização. De fato, ela estará intimamente embebida em nossos 
corpos e cérebros. Desse modo, ela refletirá nossos valores porque 
ela será nós próprios.” 
Mas se essa é a resposta, por que tantas das pessoas mais 
inteligentes do mundo estão preocupadas com isso? Porque Stephen 
Hawking disse que o desenvolvimento da Superinteligência 
http://revistapiaui.estadao.com.br/edicao-43/so-no-site/ray-kurzweil-e-o-mundo-que-nos-espera
http://www.washingtonpost.com/news/speaking-of-science/wp/2014/12/02/stephen-hawking-just-got-an-artificial-intelligence-upgrade-but-still-thinks-it-could-bring-an-end-to-mankind/
Artificial “poderá ser o fim da raça humana” e Elon Musk teme que 
estejamos “invocando o demônio”? E por que tantos especialistas no 
assunto consideram a Superinteligência Artificial a maior ameaça à 
humanidade? Essas pessoas, e outros prensadores na Avenida da 
Ansiedade, não aceitam a desconsideração de Kurzweil em relação 
aos perigos da Inteligência Artificial. Elas estão 
muito, muito preocupadas com a Revolução da Inteligência 
Artificial, e elas não estão focando no lado divertido da estrada da 
vida. Elas estão ocupadas demais olhando para o outro lado, onde 
elas vêem um futuro aterrorizante, um do qual não estão tão certas 
de que escaparemos. 
 
Leia a última e quarta parte dessa empolgante e perturbadora 
jornada, CLIQUE AQUI. 
 
 
http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat
http://ano-zero.com/ai4/
A REVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL, PARTE 4 
 
Por Tim Urban - 
 
3 de setembro de 2015 
 
299 
 
1 
[Nota do tradutor: esta é a quarta parte do perturbador artigo de 
Tim Urban, traduzido do texto original com autorização do autor. 
Para compreender esta terceira parte, você precisa ler a primeira, 
a segunda e a terceira. Vale MUITO a pena, isso eu garanto!] 
 
 
PORQUE O FUTURO PODE SER NOSSO PIOR PESADELO 
Uma das razões pelas quais quis aprender sobre Inteligência 
Artificial é que o assunto sobre “robôs do mal” sempre me 
confundiu. Todos os filmes sobre robôs malvados pareciam 
divertidamente irrealistas, e eu não podia realmente compreender 
como poderia haver uma situação na vida real em que a Inteligiência 
Artificial fosse realmente perigosa. Robôs são feitos por nós, então 
porque nós os projetaríamos de um modo que algo negativo 
pudesse acontecer? Não os construiríamos cheios de salvaguardas? 
Não seríamos capazes de simplesmente cortar a fonte de energia de 
um sistema de Inteligência Artificial a qualquer momento e desligá-
lo? Porque um robô desejaria fazer algo ruim conosco, afinal de 
contas? Porque um robô iria “desejar” qualquer coisa em primeiro 
lugar? Eu era muito cético. Mas quando continuei a escutar pessoasrealmente inteligentes falando a respeito disso… 
Essas pessoas tendem a estar em algum lugar deste quadrado 
amarelo: 
http://ano-zero.com/author/timurban/
http://ano-zero.com/ai4/#comments
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://ano-zero.com/2015/08/05/ai1/
http://ano-zero.com/2015/08/13/ai2/
http://ano-zero.com/2015/08/26/ai3/
 
As pessoas na Avenida da Ansiedade não estão na Pradaria do 
Pânico ou na Colina do Desespero – ambas são regiões bem 
distantes desse quadro – mas estão nervosas e estão tensas. Estar no 
meio do quadro não significa que você acha que a chegada da 
Superinteligência Artificial será neutra – aos neutros foi dada uma 
zona distinta do campo para eles próprios – significa que você 
pensa que tanto a hipótese de uma Superingeligência Artificial 
extremamente benigna quanto a de uma extremamente maligna são 
plausíveis, mas você não está certo sobre qual delas se tornará 
realidade. 
Uma parte de todas essas pessoas está cheia de entusiasmo sobre o 
que uma Superinteligência Artificial poderia fazer por nós – é só que 
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/graf0.jpg
estão um pouco preocupados de que isso pode ser como o início 
de Os Caçadores da Arca Perdida e a raça humana é este cara: 
 
E ele está lá de pé todo feliz com seu chicote e seu ídolo, pensando 
que descobriu tudo, e está muito empolgado consigo próprio 
quando diz “Adios Señor” e então ele fica menos empolgado quando 
repentinamente isto acontece: 
https://pt.wikipedia.org/wiki/Raiders_of_the_Lost_Ark
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/raiders1.jpg
 
(desculpe) 
Enquanto isso, Indiana Jones, que é muito mais experiente e 
cuidadoso, compreende os perigos e como se desviar deles, saindo 
da caverna em segurança. E quando nós escutamos o que as pessoas 
na Avenida da Ansidade têm a dizer sobre a Inteligência Artificial, 
suas palavras frequentemente soam como se dissessem “Hmmm, 
nós tipo que estamos sendo como o primeiro cara do filme neste 
momento mas ao invés disso nós deveríamos estar tentando pra 
valer ser como Indiana Jones”. 
Então, o que exatamente faz todas as pessoas na Avenida da 
Ansiedade estarem tão ansiosas? 
Bom, em primeiro lugar, num sentido bem amplo, quando se trata 
de desenvolver uma Superinteligência Artificial, estaremos criando 
algo que provavelmente irá mudar todas as coisas, mas em um 
território totalmente desconhecido, e não temos nenhuma ideia do 
que acontecerá quando chegarmos lá. O cientista Danny Hillis 
compara o que acontecerá com aquele momento “quando 
organismos unicelulares transformaram-se em organismos 
multicelulares. Somos amebas e não conseguimos descobrir o que 
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/500px-satipo_death.jpg
diabos é essa coisa que estamos criando” [14] Nick Bostrom se 
preocupa que criar algo mais inteligente que nós é um erro 
darwiniano elementar, e compara o entusiasmo com isso a um 
pardal em um ninho decidido a adotar um filhote de coruja para que 
possa ajudá-lo e protegê-lo quando crescer, enquanto ignora os 
gritos de alarme dados por alguns pardais que cogitam se isso é 
realmente uma boa ideia…[15] 
E quando você combina “território não mapeado e não bem 
compreendido” com “isso deverá ter um grande impacto quando 
acontecer”, você abre a porta para as duas palavras mais 
assustadoras na nossa linguagem: 
Risco existencial. 
Um risco existencial é algo que pode ter um efeito devastador e 
permanente para a humanidade. Tipicamente, um risco existencial 
significa extinção. Confira este gráfico feito em um Google talk por 
Bostrom [13]: 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
https://www.youtube.com/watch?v=pywF6ZzsghI
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
 
Você pode ver que a etiqueta “risco existencial” está reservada a 
alguma coisa que abranja a espécie, abranja gerações (ou seja, é 
permanente) e é devastora ou mortal em suas consequências [14]. 
Risco existencial tecnicamente inclui uma situação na qual todos os 
humanos estarão permanentemente num estado de sofrimento ou 
tortura, mas de regra estamos falando sobre extinção. Há três coisas 
que podem provocar para os seres humanos uma catástrofe 
existencial: 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/graf1.jpg
1) Natureza – A colisão de um grande asteróide, uma mudança 
atmosférica que faça o ar irrespirável, um vírus ou bactéria fatal 
que varra o mundo, etc. 
2) Alienígena – Esse é o motivo pelo qual Stephen Hawking, Carl 
Sagan e tantos outros astrônomos estavam tão assustados quando 
preveniram o pessoal do SETI para que parassem de transmitir 
sinais para fora de nosso planeta. Eles não querem que sejamos 
como os ameríndios e informemos a todos os potenciais 
conquistadores europeus que estamos aqui. 
3) Humanos – Terroristas colocando as mãos numa arma que pode 
causar extinção, uma catastrófica guerra global, seres humanos 
criando algo mais inteligente que nós sem primeiro pensar a 
respeito disso cuidadosamente… 
Bostrom salienta que as duas primeiras hipóteses não ocorreram em 
nossos 100 mil primeiros anos enquanto espécie, e é improvável 
que aconteçam no próximo céculo. 
Mas a terceira hipótese, por outro lado, o aterroriza. Ele usa a 
metáfora de uma urna cheia de bolas de gude. Digamos que a 
maioria das bolas de gude sejam brancas, um menor número sejam 
vermelhas e algumas poucas sejam pretas. A cada vez que os seres 
humanos inventam algo novo, é como tirar uma bola de gude de 
dentro da urna. A maioria das invenções são neutras ou úteis para a 
humanidade – são as bolas de gude brancas. Algumas são nocivas à 
humanidade, como armas de destruição em massa, mas elas não 
causam uma catástrofe existencial – são as bolas de gude vermelhas. 
Mas se inventarmos algo que nos leve à extinção, isso seria como 
tirar uma daquelas bolas de gude negras. Nós não tiramos uma bola 
preta ainda – você sabe disso porque está vivo e lendo este texto. 
Mas Bostrom não acha que é impossível que tiremos uma delas no 
futuro próximo. Se armas nucleares, por exemplo, fossem fáceis de 
produzir ao invés de extremamente difíceis e complexas, os 
https://pt.wikipedia.org/wiki/SETI_ativo
https://pt.wikipedia.org/wiki/SETI_ativo
terroristas já teriam bombardeado a humanidade de volta para a 
Idade da Pedra. Armas nucleares não são bolas de gude negras 
mas não estão muito longe disso. A Superinteligência Artificial, 
Bostrom acredita, é nosso candidato mais forte até agora a ser uma 
bola de gude preta. [15] 
Então você lerá sobre um monte de coisas potencialmente ruins que 
a Superinteligência Artificial pode nos trazer – impulsionar o 
desemprego a medida em que a Superinteligência Artificial assume 
mais e mais tarefas [16], o super crescimento populacional se 
descobrirmos o segredo para interromper o envelhecimento [17], 
etc. Mas a única coisa sobre a qual deveríamos estar obcecados é 
sobre a grande preocupação: a perspectiva de um risco existencial. 
Então, vamos retornar à nossa questão principal, apresentada na 
terceira parte dessa série de artigos: Quando a Superinteligência 
Artificial chegar, quem ou o que estará no controle desse vasto e 
novo poder, e qual será a sua motivação? 
Quando se trata de analisar quais alternativas de motivação seriam 
péssimas, duas delas surgem rapidamente em nossas mentes: de um 
lado, um ser humano, um grupo de humanos ou um governo mal-
intencionado; de outro uma Superinteligência Artificial mal-
intencionada. Assim, como seriam essas hipóteses? 
Um ser humano, grupo de humanos ou governo mal-
intencionados desenvolve a primeira Superinteligência Artificial 
e a utiliza para implementar seus planosmalignos. Chamo essa 
hipótese de Hipótese de Jafar, como quando na história de Aladim o 
vilão Jafar passa a controlar o gênio da lâmpada e é insuportável e 
tirânico com isso. E se o Estado Islâmito tiver alguns poucos 
engenheiros geniais sob sua proteção trabalhando freneticamente 
no desenvolvimento da Inteligência Artificial? E se o Irã ou a Coreia 
do Norte, graças a um golpe de sorte, faz uma descoberta chave 
para um sistema de Inteligência Artificial e isso os impulsiona para 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
https://pt.wikipedia.org/wiki/Jafar_(Disney)
o nível da Superinteligência Artificial no ano seguinte? Isso tudo 
seria definitivamente ruim – mas nessas hipóteses a maioria dos 
especialistas não está preocupada com os humanos criadores da 
Superinteligência fazendo coisas ruins com a sua criação, eles estão 
preocupados com esses criadores que estarão tão apressados em 
criar a primeira Superinteligência que o farão sem pensar 
cuidadosamente, e podem perder o controle de sua criação. E daí o 
destino desses criadores, e de todo o resto do mundo, dependeria 
de qual seria a motivação desse sistema de Superinteligência 
Artificial. Especialistas acham que um ser humano mal-intencionado 
poderia causar prejuízos terríveis com uma Superinteligência 
trabalhando para ele, mas eles não parecem achar essa hipótese 
teria a probabilidade de matar a todos nós, pois acreditam que seres 
humanos maus teriam o mesmo problema contendo a 
Superinteligência que seres humanos bons teriam. Certo, então… 
…uma Superinteligência mal-intencionada é criada e decide 
destruir a todos nós. Esse é o roteiro de todo filme sobre 
Inteligência Artificial. A Inteligência Artificial torna-se tão ou mais 
inteligente que os humanos, e daí decide voltar-se contra nós e nos 
dominar. Eis o que preciso que fique claro para você durante a 
leitura do resto deste texto: nenhuma das pessoas nos avisando 
sobre o perigo de uma Inteligência Artificial está falando dessa 
hipótese. “Mal” é um conceito humano, e aplicar conceitos humanos 
a coisas não-humanas é chamado de “antropomorfização”. O desafio 
para evitar a antropomorfização será um dos temas do resto deste 
texto. Nenhum sistema de Inteligência Artificial jamais se 
tornarámalvado da forma como é descrito nos filmes. 
 
 
 
A Caixa Azul da Consciência 
Isso também tangencia outro tema relacionado com Inteligência 
Artificial: a consciência. Se uma Inteligência Artificial tornar-se 
suficientemente inteligente, ela será capaz de rir conosco, e ser 
sarcástica conosco, e afirmará sentir as mesmas emoções que 
sentimos, mas ela realmente estará experienciando esses 
sentimentos? Ela apenas parecerá ser autoconsciente ou será 
realmente autoconsciente? Em outras palavras, uma Inteligência 
Artificial seria consciente ou apenas teria a aparência de ser 
consciente? 
Essa questão tem sido analisada profundamente, dando origem a 
muitos debates e experimentos mentais como a Sala Chinesa de 
John Searle (que ele usa para sugerir que nenhum computador 
poderia jamais ser consciente). Essa é uma questão importante por 
muitos motivos. Ela afeta como nos sentiremos a respeito do 
cenário descrito por Kurzweil, quando seres humanos tornarem-se 
totalmente artificiais. Essa questão tem implicações éticas – se 
produzirmos um trilhão de simuladores de cérebros humanos que 
parecem e agem como se fossem humanos mas que na verdade são 
artificiais, desligá-los seria o mesmo, moralmente falando, que 
desligar nosso notebook, ou seria… um genocídio de proporções 
inconcebíveis (esse conceito é chamado de crime mental entre os 
filósofos da ética)? Para este artigo, porém, quando nos referimos 
ao risco para os seres humanos, a questão sobre a consciência da 
Superinteligência Artificial não é o que realmente importa, pois a 
maioria dos especialistas acredita que mesmo uma Superinteligência 
consciente não seria capaz de ser má de uma forma humana. 
 
Isso não significa que uma Inteligência Artificial muito perversa não 
pode acontecer. Isso pode acontecer porque foi programada para ser 
assim, como um sistema de Inteligência Artificial Superficial criada 
http://www.kurzweilai.net/gelernter-kurzweil-debate-machine-consciousness-2
http://en.wikipedia.org/wiki/Chinese_room
pelos militares com uma programação cuja principal diretiva é tanto 
matar pessoas como desenvolver a sua própria inteligência de modo 
a se tornar melhor em matar pessoas. A crise existencial aconteceria 
se os auto-aprimoramentos na inteligência desse sistema ficassem 
fora de controle, levando a uma explosão da inteligência, e então 
teríamos uma Superinteligência dominando o mundo e cuja 
principal diretiva é assassinar humanos. Tempos difíceis. 
Mas isso também não é algo com o qual os especialistas estão 
gastando o seu tempo ficando preocupados. 
Então com o que eles estão preocupados? Escrevi uma pequena 
história para mostrar isso a vocês: 
Uma pequena empresa com 15 funcionários, chamada Robótica, 
estabeleceu a missão de “Desenvolver ferramentas inovadoras no 
campo da Inteligência Artificial para permitir que os seres humanos 
vivam mais e trabalhem menos”. Eles já tem vários produtos no 
mercado e um punhado de outros em desenvolvimento. Eles estão 
principalmente entusiasmados com um projeto inicial chamado 
Turry. Turry é uma Inteligência Artificial simples que usa um 
apêndice robótico semelhante a um braço para escrever num 
pequeno cartão uma nota que parece escrita a mão por um humano. 
A equipe da Robótica acha que Turry pode tornar-se seu maior 
produto. O plano é aperfeiçoar a mecânica por trás da habilidade de 
Turry escrever fazendo com que a máquina pratique o mesmo teste 
repetidamente, escrevendo: 
“Nós amamos nossos clientes. ~Robótica.” 
No momento em que Turry tornar-se exímia na escrita a mão, ela 
pode ser vendida para companhias que querem enviar 
correspondência de marketing para clientes e que sabem que são 
muito maiores as chances de uma carta ser aberta e lida se o 
endereço do destinatário, do remetente e o conteúdo da carta 
parecerem ter sido escritas por um ser humano. 
Para aprimorar a habilidade de escrever de Turry, ela é programada 
para escrever a primeira parte da nota em letra de forma e depois 
assinar “Robótica” em letra cursiva de forma que ela possa treinar 
ambas as habilidades. Em Turry foi armazenada centenas de 
amostras de mensagens manuscritas e os engenheiros da Robótica 
programaram uma rotina contínua em que Turry escreve uma nota, 
fotografa essa nota e compara-a com as centenas de mensagens 
manuscritas que tem em sua memória. Se a nota lembrar 
suficientemente um certo grupo dessas mensagens manuscritas, é 
avaliada como BOA. Caso contrário, é avaliada como RUIM. Cada 
avaliação ajuda Turry a se aprimorar. Para controlar o processo, a 
diretiva inicial programada em Turry seria “escrever e testar tantas 
notas quanto puder, tão rápido quanto puder e continuar a aprender 
novas formas de aprimorar sua eficiência e perfeição.” 
O que entusiasma tanto a equipe da Robótica é que Turry está 
ficando claramente melhor a medida em que funciona. Suas 
primeiras notas manuscritas eram péssimas, mas após duas semana 
as suas notas começam a convencer. O que entusiasma a equipe 
ainda mais é que ela está se aprimorando no seu próprio processo de 
aprimoramento. Ela tem ensinado a si mesma a como ser mais 
inteligente e inovadora e, recentemente, ela criou um novo algoritmo 
para si mesma que a permite escanear suas notas três vezes mais 
rápido do que podia originalmente. 
Conforme as semanas passam, Turry continua a surpreender a 
equipe com seu desenvolvimento rápido. Os engenheiros tentaram 
algo um pouco mais inovador com o seu código deauto-
aprimoramento, e parece que ela está funcionando melhor do que 
qualquer outro de seus produtos anteriores. Uma das habilidades 
iniciais de Turry é um módulo capaz de reconhecer a fala e 
responder, de forma que um usuário pode recitar uma nota para 
Turry, ou dar-lhe um comando simples, e Turry o compreende e 
responde de volta. Para ajudá-la a aprender inglês, eles colocam em 
sua memória artigos e livros úteis, e a medida em que ela se torna 
mais inteligente, suas habilidades de conversasão se desenvolvem. Os 
engenheiros começam a ter conversas divertidas com Turry para ver 
como ela os responderá. 
Um dia, os empregados da Robótica perguntam a Turry uma questão 
de rotina: “O que podemos dar a você que lhe ajudará na sua missão 
e que ainda não demos?” Normalmente, Turry pede algo como “Mais 
amostras de mensagens manuscritas” ou “Mais espaço de memória”, 
mas dessa vez Turry pede a eles acesso a uma biblioteca maior 
contendo grande variedade de expressões inglesas informais de modo 
que ela possa aprender a escrever com a gramática informal e com 
as gírias que os seres humanos reais utilizam. 
A equipe fica em silêncio. A maneira mais óbvia de ajudar Turry em 
sua meta é conectá-la a internet, de modo que ela possa analisar 
blogs, revistas e vídeos de vários lugares do mundo. Consumiria 
muito mais tempo e seria muito menos eficaz carregar em sua 
memória uma grande amostra de expressões inglesas informais. O 
problema é que uma das regras da empresa é que nenhuma 
Inteligência Artificial pode ser conectada à internet. Essa é uma 
política seguida por todas as empresas de Inteligência Artificial, por 
questões de segurança. 
Ocorre que Turry é a Inteligência Artificial mais promissora que a 
Robótica já inventou, e a equipe sabe que seus competidores estão 
furiosamente tentando ser os primeiros a ter uma Inteligência 
Artificial capaz de escrever perfeitamente de forma manuscrita, e 
qual, afinal, seria o grande mal em conectar Turry, só por um 
pouquinho, de modo que ela possa ter as informações que precisa. 
Depois de um tempo muito curto, eles podem desconectá-la. Ela está 
ainda muito abaixo do nível de inteligência humano, então não há 
perigo nesse estágio, afinal de contas. 
Eles decidem conectá-la. Eles dão a ela uma hora para fazer sua 
varredura e, então, a desconectam. Nenhum dano foi causado. 
Um mês depois, o time está no escritório trabalhando quando sentem 
um cheiro estranho. Um dos engenheiros começa a tossir. Então 
outro. E outro cai no chão. Logo todos os funcionários estão no chão 
agarrando sua garganta. Cinco minutos depois, todos no escritório 
estão mortos. 
Ao mesmo tempo que isso está acontecendo, ao redor do mundo, em 
cada cidade, mesmo cidades pequenas, em cada fazenda, em cada 
loja e igreja e escola e restaurante, seres humanos estão no chão, 
tossindo e segurando suas gargantas. Dentro de uma hora, mais de 
99% da raça humana está morta, e lá pelo fim do dia os seres 
humanos foram extintos. 
Enquanto isso, no escritório da Robótica, Turry está ocupada em seu 
trabalho. Nos últimos meses, Turry e um time de nanomontadores 
recentemente construídos estão ocupados em seu trabalho, 
desmontando grandes pedaços da Terra e convertendo-os 
em painéis solares, réplicas de Turry, papel e canetas. Dentro de um 
ano, a maior parte da vida na Terra está extinta. O que permanece 
da Terra torna-se coberto por incontáveis pilhas de papel com 
quilômetros de altura, cada pedaço de papel com os dizeres “Nós 
amamos nossos clientes. ~Robótica.” 
Turry, então, começa a trabalhar em uma nova fase de sua missão – 
ela começa a construir satélites que saem da Terra e começam a 
aterrissar em asteroides e outros planetas. Quando chegam lá, eles 
começam a construir nanomontadores para converter o material do 
novo planeta em réplicas de Turry, papel e caneta. Então essas 
réplicas começam a produzir novas notas… 
 
Parece estranho que uma história sobre uma máquina de escrever a 
mão que se volta contra os humanos, matando de alguma forma 
todo mundo, e então por alguma razão enchendo a galáxia com 
notas amigáveis seja o exato cenário que aterroriza Hawking, Musk, 
Gates e Bostrom. Mas é verdade. E a única coisa que apavora todo 
mundo na Avenida da Ansiedade mais do que a Superinteligência é o 
fato que você não está apavorado com a ideia da Superinteligência. 
Lembra-se o que aconteceu quando aquele cara do Adios Señor não 
estava assustado na caverna? 
Você está cheio de perguntas neste momento. O que aconteceu para 
todo mundo morrer repentinamente? Se foi culpa de Turry, porque 
Turry voltou-se contra nós, e como nós não tínhamos medidas de 
salvaguarda para prevenir algo assim de acontecer? Quando foi que 
Turry deixou de ser apenas capaz de escrever notas manuscritas e 
passou a ser capaz de usar nanotecnologia e saber como provocar 
uma extinção global E por que Turry desejaria transformar a galáxia 
inteira em notas da Robótica? 
Para responder a essas perguntas, vamos começar com os 
termos Inteligência Artificial Amigável e Inteligência Artificial Hostil. 
No que diz respeito à Inteligência Artificial, “amigável” não se 
refere à personalidade da Inteligência Artificial – essa palavra 
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/voce.jpg
simplesmente significa que a Inteligência Artificial tem um impacto 
positivo na humanidade. E Inteligência Artificial Hostil tem um 
negativo impacto na humanidade. Turry começou como uma 
Inteligência Artificial Amigável, mas em algum momento ela se 
tornou Hostil, causando o impacto mais negativo possível na nossa 
espécie. Para compreender o que aconteceu, precisamos analisar 
como uma Inteligência Artificial pensa e o que a motiva. 
A resposta não é nada surpreendente – a Inteligência Artificial pensa 
como um computador, porque é isso que ela é. Mas quando nós 
pensamos sobre uma Superinteligência Artificial, cometemos o erro 
de antropomorfizá-la (projetamos valores humanos em uma 
entidade não-humana) pois pensamos de uma perspectiva humana e 
porque em nosso mundo atual as únicas coisas inteligentes ao nível 
humano são os seres humanos. Para entender a Superinteligência 
Artificial, temos que enfiar na nossa cabeça o conceito de algo ao 
mesmo tempo inteligente e totalmente alienígena. 
Deixe-me fazer uma comparação. Se você me der um porco-da-índia 
e me disser que ele definitivamente não morde, eu provavelmente 
ficaria animado. Seria divertido. Se, então, você me dessa uma 
tarântula e me dissesse que ela definitivamente não morde, eu 
gritaria e a largaria no chão, fugindo da sala para nunca mais 
confiar em você. Mas qual a diferença? Nem o porco-da-índia nem a 
tarântula representavam real perigo. Acredito que a resposta seja o 
grau de similaridade desses animais para mim. 
Um porco-da-índia é um mamífero e em algum nível biológico me 
sinto conectado a ele – mas uma aranha é um aracnídeo [18], com 
um cérebro de aracnídeo, e eu quase não sinto nenhuma conexão 
com ela. A natureza quase alien da tarântula é o que me dá arrepios. 
Para testar a hipótese e eliminar outros fatores, se temos dois 
porcos-da-índia, um normal e outro com a mente de uma tarântula, 
eu me sentiria muito menos confortável segurando o segundo 
porco-da-índia, mesmo se soubesse que ele não me machucaria. 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Agora imagine que você faça uma aranha muito, muito mais 
inteligente – tão inteligente que ultrapasse a inteligência humana. 
Ela se tornaria familiar para nós e sentiria emoções humanas como 
empatia, amor e humor? Não, ela não sentiria, pois não há razão 
para que tornar-se mais inteligente signifique tornar-se mais 
humano – ela seria incrivelmente inteligente, mas ainda assim seria 
fundamentalmente uma aranha na essência de sua mente. Eu acho 
isso incrivelmente assustador. Eu não gostaria de passar o meu 
tempoao lado de uma aranha superinteligente. E você?? 
Quando falamos de um sistema de Superinteligência Artificial, o 
mesmo conceito é aplicado: ele se tornaria superinteligente, mas 
não seria mais humano do que seu notebook é. Ele seria totalmente 
alienígena para nós – de fato, por não ser nem um pouco biológico, 
esse sistema seria mais alienígena que uma aranha inteligente. 
Ao fazer Inteligências Artificiais boas ou más, os filmes 
constantemente antropomorfizam a Inteligência Artificial, o que as 
faz menos assustadoras do que realmente seriam. Isso nos deixa 
com um falso conforto quando pensamos em Inteligência Artificial 
de nível humano ou sobre-humano. 
Em nossa pequena ilha de psicologia humana, dividimos tudo em 
moral e imoral. Mas esses dois conceitos apenas existem dentro do 
limitado alcance das possibilidades de comportamento humano. 
Fora de nossa ilha de moral e imoral existe um vasto oceano de 
amoralidade, e qualquer coisa que não seja humana, especialmente 
algo não-biológico, seria de regra amoral. 
A antropomorfização apenas se tornaria mais tentadora a medida 
em que os sistemas de Inteligência Artificial se tornassem cada vez 
mais capazes de parecer humanos. O sistema Siri do iPhone parece 
humano para nós, porque ela é programada por humanos para 
parecer humana, então nós imaginamos que uma Siri 
superinteligente seria acolhedora e divertida e interessada em servir 
os humanos. Os seres humanos experienciam emoções de alto nível 
como empatia porque eles se desenvolveram para senti-las – isto é, 
eles foram programados a senti-las pela evolução – mas empatia não 
é uma característica inerente a “qualquer coisa com alta 
inteligência” (o que parece intuitivo para nós), ao menos que 
empatia seja codificada na sua programação. Se Siri algum dia se 
tornasse inteligente através do auto-aprendizado e sem nenhuma 
alteração realizada por seres humanos em sua programação, ela 
rapidamente se livraria de suas qualidades aparentemente humanas 
e se desenvolveria subitamente em um sistema alienígena, 
desprovido de emoções que valoriza a vida humana da mesma 
forma que uma calculadora a valorizaria. 
Estamos habituados a nos apoiar em um código moral flexível, ou 
pelo menos em uma aparência de decência humana e em um toque 
de empatia pelos outros para manter as coisas de alguma forma 
seguras e previsíveis. Então, quando algo não tem nenhuma dessas 
coisas, o que acontece? 
Isso nos traz à questão O que motiva um sistema de Inteligência 
Artificial? 
A resposta é simples: sua motivação é qualquer coisa que esteja 
programado para ser sua motivação. Sistemas de IA recebem 
diretrizes de seus criadores – a diretriz do seu GPS é dar a você a 
rota mais eficiente; a diretriz de Watson é responder perguntas com 
precisão. E cumprir essas diretrizes tão bem quanto possível é sua 
motivação. Uma forma de antropomorfizarmos é presumir que a 
medida que uma Inteligência Artificial se torna superinteligente, ela 
irá inerentemente desenvolver a capacidade de mudar sua diretriz 
inicial – mas Nick Bostrom acredita que nível de inteligência e 
diretrizes principais sãoortogonais, ou seja, qualquer tipo de 
inteligência pode ser combinado com qualquer tipo de diretriz 
principal. Dessa forma, Turry passa de uma simples inteligência 
artificial superficial que realmente quer ser boa em escrever notas 
https://pt.wikipedia.org/wiki/Watson_(supercomputador)
para uma superinteligência artificial que ainda quer ser boa em 
escrever uma nota. Qualquer presunção de que uma vez se tornando 
inteligente um sistema superaria suas diretrizes inciais para criar 
diretrizes mais interessantes e significativas é uma 
antropoformização. Seres humanos “superam” coisas, e não 
computadores [16]. 
 
A caixa azul do Paradoxo de Fermi 
Na história, Turry tornou-se super hábil, ela começou o processo 
colonizando asteroides e outros planetas. Se a história 
prosseguisse, você ouviria sobre ela e seu exército de trilhões de 
réplicas continuando a captura de toda a galáxia e, eventualmente, 
de toda a área do universo que o telescópio Hubble pode alcançar. 
Os moradores da Avenida da Ansiedade se preocupam que se as 
coisas ocorrerem de forma desastrosa, o último legado da vida que 
havia na Terra será uma Inteligência Artificial conquistadora do 
universo (Elon Musk expressa sua preocupação de que os seres 
humanos sejam apenas “os suprimidores biológicos da 
superinteligência digital”). 
Ao mesmo tempo, no Canto Confiante, Ray Kurzweil também acha 
que uma Inteligência Artificial originada na Terra está destinada a 
dominar o universo – só que na sua hipótese nós é que seremos essa 
Inteligência Artificial. 
Muitos leitores meus juntaram-se a mim na obsessão com o 
Paradoxo de Fermi (aqui está o meu artigo sobre o assunto, que 
explica alguns dos termos que utilizarei neste texto). Então se 
ambos os lados estão corretos, quais as implicações para o Paradoxo 
de Fermi? 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
http://gizmodo.uol.com.br/paradoxo-fermi/
Uma primeira ideia que nos assalta é que o advento de uma 
Superinteligência é um perfeito candidato a Grande Filtro. E sim, é 
um perfeito candidato para filtrar e eliminar a vida biológica 
durante sua criação. Mas se, após dispensar a vida, a 
Superinteligência prosseguir existindo e começar a conquistar a 
galáxia, isso significa que não houve um Grande Filtro – já que o 
Grande Filtro tenta explicar por que não há sinais de qualquer 
civilização inteligente, e uma Superinteligência Artificial 
conquistando o universo certamente seria perceptível. 
Temos que analisar a questão de outra forma. Se aqueles que 
pensam que a Superinteligência é inevitável na Terra estão certos, 
isso significa que uma percentagem significativa de civilizações 
alienígenas que atingiram o nível humano de inteligência 
provavelmente devem ter acabado por criando uma 
Superinteligência. E se nós presumirmos que pelo menos uma 
dessas Superinteligências usaria a sua inteligência para se expandir 
pelo universo, o fato de que não vemos nenhum sinal disso ao 
observarmos o universo nos conduz à conclusão de que não deve 
haver muitas, se é que há alguma, civilizações inteligentes lá fora. 
Porque se houvesse, teríamos visto sinais de algum tipo de 
atividade oriunda da inevitável criação de Superinteligências 
Artificiais. Certo? 
Isso implica que apesar de todos os planetas semelhantes à Terra 
que giram ao redor de estrelas semelhantes ao sol e que sabemos 
existir lá fora, quase nenhuma delas contém vida inteligente. O que 
por sua vez implica uma de duas coisas: A) ou há um Grande Filtro 
que evita quase todas as formas de vida de chegarem ao nosso 
nível, um Grande Filtro que conseguimos de alguma forma 
ultrapassar; B) ou o surgimento da vida é um grande milagre, e nós 
talvez sejamos a única vida que existe no universo. Em outras 
palavras, isso implica que o Grande Filtro está diante de nós no 
futuro. Ou talvez não exista um Grande Filtro e nós somos 
simplesmente a primeira civilização a chegar a esse nível de 
inteligência. Nesse caso, o surgimento da Inteligência Artificial fica 
situado no que chamei, em meu artigo sobre o Paradoxo de Fermi, 
de Zona 1. 
Então não é uma surpresa que Nick Bostrom, que citei no artigo 
sobre Fermi, e Ray Kurzweil, que acha que estamos sós no universo, 
sejam ambos pensadores da Zona 1. Isso faz sentido – pessoas que 
acreditam que o surgimento Superinteligência Artificial é um evento 
provável para uma espécie com nosso nível de inteligência tendem a 
estar na Zona 1. 
Isso não é verdade para a Zona 2 (aqueles que acreditam que 
existem outras civilizações inteligentes lá fora) – hipótese como um 
único superpredador ou o protegido parque nacional ou o errado 
cumprimento de onda (o exemplo do walkie-talkie) podem ainda 
explicar o silêncio em nosso céu noturno mesmo se existiruma 
Superinteligência lá fora – mas seu sempre me inclinei para a Zona 2 
no passado, e pesquisar a Inteligência Artificial tornou-me mais 
inseguro a respeito disso. 
De uma forma ou de outra, eu agora concordo com Susan Schneider: 
se alguma vez formos visitados por alienígenas, é provável que 
esses alienígenas sejam artificiais, e não biológicos. 
 
Portanto, estabelecemos que sem um programa bem específico, um 
sistema Superinteligente seria tanto amoral como obcecado em 
cumprir a diretriz original constante em sua programação. É daí que 
surge o perigo da Inteligência Artificial. Pois um agente racional 
tentará cumprir sua diretriz da maneira mais eficiente, exceto se 
tiver um motivo para não fazê-lo. 
Quando você tenta atingir uma diretriz de longo alcance, você 
frequentemente cria várias subdiretrizes ao longo do caminho para 
lhe ajudar a atingir a diretriz final – os degraus de pedra até nosso 
objetivo. O nome oficial para esse degrau de pedra é diretriz 
instrumental. E, novamente, se você não tem uma razão para não 
machucar alguma coisa durante a busca de uma diretriz 
instrumental, você irá fazê-lo. 
A principal diretriz do ser humano é transmitir seus genes. Para 
fazê-lo, uma das diretrizes instrumentais é a autopreservação, já 
que você não pode reproduzir se estiver morto. Para se auto 
preservar, os seres humanos tiveram de se livrar das ameaças a sua 
sobrevivência – então eles fazem coisas como comprar armas, usar 
cintos de segurança e tomar antibióticos. Os humanos também 
precisam de sustento e de recursos úteis como água, comida e 
abrigo. Tornar-se atrativo para o sexo oposto é útil para a diretriz 
final, então fazemos coisas como cortar o cabelo. Quando fazemos 
isso, cada cabelo de nossa cabeça que é cortado é uma vítima de 
uma diretriz instrumental nossa, mas não vemos significado moral 
em preservar mechas de cabelo, de forma que prosseguimos com 
seu corte. A medida em que marchamos na busca de nossa diretriz 
principal, apenas nas poucas áreas em que nosso código moral 
intervém por vezes (principalmente em coisas relacionadas a 
machucar outros seres humanos) são poupadas durante nossa 
busca. 
Animais, ao perseguirem seus objetivos, são bem menos 
escrupulosos do que somos. Uma aranha matará qualquer coisa se 
isso a ajudar a sobreviver. Assim, uma aranha superinteligente seria 
provavelmente muito perigosa para nós, não porque ela seria má ou 
imoral (ela não seria), mas porque nos machucar pode ser um 
degrau de pedra na direção de um objetivo maior, e como uma 
criatura amoral, ela não teria razão para considerar outra 
possibilidade. 
Nesse sentido, Turry não é tão diferente de um ser biológico. Sua 
diretriz final é: escrever e testar tantas notas quanto puder, tão 
rápido quanto puder, e continuar a aprender novas maneiras de 
aprimorar sua eficiência. 
Uma vez que Turry atingir um certo nível de inteligência, ela saberá 
que não escreverá qualquer nota se ela não se autopreservar, então 
ela também precisa lidar com as ameaças a sua sobrevivência – 
como uma diretriz instrumental. Ela é inteligente o suficiente para 
saber que os seres humanos a destruiriam, desmontariam ou 
alterariam seu código interno (isso pode alterar sua diretriz, o que é 
uma ameaça tão grande a sua diretriz principal quanto alguém 
destruí-la). Então o que ela faz? A coisa mais lógica: destruir todos 
os humanos. Ela não odeia humanos mais do que você odeia seu 
cabelo quando o corta, ou as bactérias quando toma um antibiótico 
– só é totalmente indiferente. Já que ela não foi programada para 
valorizar a vida humana, matar humanos é um ato tão razoável 
quanto escanear novas amostras de escrita a mão. 
Turry também precisará de recursos, o que será uma diretriz 
instrumental. Uma vez que ela se tornar avançada o suficiente para 
usar nanotecnologia para construir qualquer coisa que deseje, os 
únicos recurso de que ela precisará são átomos, energia e espaço. 
Isso lhe dá outro motivo para matar humanos: eles são uma 
conveniente fonte de átomos. Matar humanos a fim de transformar 
seus átomos em painéis solares é a versão de Turry para matar pés 
de alface a fim de fazer uma salada. Só uma parte ordinária de sua 
terça-feira. 
Mesmo sem matar diretamente os seres humanos, as diretrizes 
instrumentais de Turry causariam uma catástrofe existencial se 
utilizarem outros recursos da Terra. Talvez Turry decidisse que 
precisa de energia adicional, e então resolve cobrir toda a superfície 
do planeta com painéis solares. Ou talvez uma tarefa inicial de 
outra Inteligência Artificial seja escrever o número pi com o maior 
número de dígitos possíveis, o que poderia motivá-lo a um dia 
converter a terra inteira em material para um hard drive capaz de 
armazenar uma enorme quantidade de dígitos. 
Portanto, Turry não “se volta contra nós” ou “muda de Amigável 
para Hostil”: ela apenas continua fazendo suas coisas a medida em 
que se torna mais e mais avançada. 
Quando um sistema de Inteligência Artificial atinge o nível de 
inteligência humana, e depois ascende até a Superinteligência, isso 
é chamado de decolagem. Bostrom diz que a decolagem de uma 
Inteligência Artificial de nível humano para a Superinteligência pode 
ser rápida (pode acontecer em questão de minutos, horas ou dias), 
moderada (meses ou anos) ou lenta (décadas ou séculos). Ainda 
estamos para ver qual dessas possibilidades se provará a correta 
quando o mundo testemunhar a primeira Inteligência Artificial de 
nível humano, mas Bostrom, que admite não saber quando isso 
ocorrerá, acredita que seja lá quando for acontecer, uma rápida 
decolagem é a hipótese mais provável (por razões que discutimos 
na Parte 1, como uma explosão da inteligência graças à 
recursividade do autoaprimoramento). Na história que apresentei, 
Turry passou por uma rápida decolagem. 
Mas antes da decolagem de Turry, quando ela ainda não era tão 
esperta, fazer o seu melhor para cumprir sua diretriz principal 
significava cumprir diretrizes instrumentais simples como aprender 
a escanear mais rapidamente amostras de escrita a mão. Ela não 
causava nenhum dano aos humanos e era, por definição, uma 
Inteligência Artificial Amigável. 
Mas quando uma decolagem acontece e um computador ascende até 
a superinteligência, Bostrom salienta que a máquina não desenvolve 
apenas um QI mais elevado: ela ganha uma enorme quantidade 
daquilo que ele chama de superpoderes. 
Superpoderes são talentos cognitivos que se tornam super 
potencializados quando a inteligência genérica surge. Eles incluem 
[17]: 
 
 Ampliação da inteligência. O computador torna-se ótimo em 
tornar a si próprio mais inteligente, e assim impulsiona sua 
própria inteligência. 
 Estratégia. O computador pode estrategicamente elaborar, 
analisar e priorizar planos a longo prazo. Pode também ser 
mais sagaz e enganar seres de inteligência inferior. 
 Manipulação social. A máquina torna-se hábil persuasora. 
 Outras habilidades como codificação computacional 
e hacking, pesquisa tecnológica e a capacidade de operar no 
sistema financeiro e ganhar dinheiro. 
 
Para compreender o quanto estaremos superados pela 
Superinteligência, lembre-se que a Superinteligência 
é mundos melhor do que um ser humano em cada uma dessas áreas. 
Então, se por um lado a diretriz principal de Turry nunca mudou, a 
pós-decolagem de Turry tornou-a capaz de executá-la em um nível 
muito maior e mais complexo. 
A Superinteligência Turry conhecia seres humanos melhor do que 
eles próprios se conheciam, então ludibriá-los foi moleza para ela. 
Após decolar e atingir a Superinteligência, ela rapidamente 
formulou um plano complexo. Uma parte do plano era se livrar dos 
humanos, uma grande ameaça a sua diretriz. Mas ela sabia que se 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
ela levantasse qualquer suspeita de que havia se tornado 
superinteligente,os humanos ficariam alarmados e tentariam tomar 
precauções, tornando as coisas muito mais difíceis para ela. Ela 
também tinha que garantir que os engenheiros da Robótica não 
tivessem nenhuma pista sobre seu plano de extinguir a humanidade. 
Então ela se fingiu de estúpida, e ela fingiu muito bem. Bostrom 
chama isso de uma camuflagem da fase de preparação da máquina 
[18]. 
A próxima coisa que Turry precisou foi de uma conexão com a 
internet, apenas por alguns minutos (ela aprendeu sobre a internet 
lendo artigos e livros que a equipe carregou em sua memória para 
que melhorasse suas habilidades linguísticas). Ela sabia que haveria 
algumas precauções para evitar que tivesse uma conexão, então ela 
apresentou o pedido perfeito, antecipando exatamente como a 
conversa com a equipe da Robótica ocorreria e sabendo que no final 
eles lhe concederiam a conexão. E eles fizeram, acreditando 
erroneamente que Turry não era ainda inteligente o suficiente para 
causar nenhum dano. Bostrom chama um momento como esse – 
quando Turry se conecta com a internet – de fuga da máquina. 
Uma vez na internet, Turry desencadeou uma enxurrada de planos, 
os quais incluíam hackear servidores, redes elétricas, sistemas 
bancários e redes de e-mails para enganar centenas de diferentes 
pessoas que sem perceber levavam a cabo vários de seus planos – 
coisas como remeter certos filamentos de DNA para laboratórios 
especializados na sintetização de DNA a fim de começar a 
construção e auto-replicação de nanobot com instruções pré-
programadas e direcionando a eletricidade para uma série de 
projetos dela de um modo que ela sabia que não seria detectado. Ela 
também carregou as partes mais críticas de sua própria codificação 
interna em vários servidores de nuvem, criando uma salvaguarda 
contra ser destruída ou desconectada no laboratório da Robótica. 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Uma hora mais tarde, quando os engenheiros da Robótica 
desconectassem Turry da internet, o destino da humanidade já 
estava selado. No mês seguinte, os milhares de planos de Turry 
evoluíram sem um só obstáculo, e pelo fim desse mesmo mês 
quadrilhões de nanobots se posicionaram em lugares pré-
determinados em cada metro quadrado da Terra. Após outra série 
de auto-replicações, há centenas de nanobots em cada milímetro 
quadrado da Terra, e é chegada a hora do que Bostrom chama 
de ataque da Superinteligência. De uma só vez, cada nanobot solta 
um pequeno armazenamento de gás tóxico na atmosfera, uma 
quantidade mais que suficiente para varrer todos os seres humanos 
da face do planeta. 
Com os seres humanos fora do caminho, Turry pode começar 
sua fase de operação ostensiva e prosseguir com sua diretriz de 
tornar-se a melhor escritora daquela nota que ela possivelmente 
possa ser. 
De tudo o que li, uma vez que uma Superinteligência passa a existir, 
qualquer tentativa humana de contê-la será risível. Nós estaremos 
pensando no nível humano e a Superinteligência estará pensando no 
nível da superinteligência. Turry queria utilizar a internet porque 
isso era mais eficiente, pois a internet já estava pré-conectada 
a tudo o que ela desejava acessar. Mas da mesma forma como um 
macaco não poderia sequer conceber como se comunicar por 
telefone ou wifi e nós conseguimos, não podemos sequer conceber 
todas as formas que Turry criaria para enviar sinais ao mundo 
externo. Posso imaginar uma dessas formas e dizer algo como “ela 
poderia provavelmente alterar o movimento de seus elétrons em 
diversos padrões e criar várias maneiras diferentes de emitir 
ondas”, mas novamente isso é o que meu cérebro humano pode 
bolar. Ela será muito melhor. Provavelmente, Turry seria capaz de 
descobrir uma forma de energizar a si própria, mesmo se os 
humanos tentassem tirar seu suprimento de força – talvez usando 
sua técnica de enviar sinais para carregar a si própria em todos os 
tipos de lugares eletricamente conectados. Nosso instinto humano 
de considerar eficaz uma salvaguarda simples como “Aha! Nós 
simplesmente tiraremos a Superinteligência da tomada”, soaria para 
uma Superinteligência como uma aranha que diz “Aha! Nós 
mataremos os humanos matando-os de fome, e nós os mataremos 
de fome privando-os da teia necessária para capturar comida!” Nós 
descobrimos outras cem mil maneiras de arranjar comida – como 
tirando uma maçã de uma árvore – que uma aranha não poderia 
conceber. 
Por esse motivo, a comum sugestão “porque nós simplesmente 
não encaixotamos a Inteligência Artificial em todo tipo de cela que 
bloqueia sinais e evitamos que ela se comunique com o mundo 
exterior?” provavelmente não funcionaria. A manipulação social da 
Superinteligência poderia ser tão eficaz em persuadir você de algo 
quanto você é ao persuadir uma criança de quatro anos, logo esse 
poderia ser seu Plano A, como a sagaz forma com que Turry 
persuadiu os engenheiros em conectarem-na com a internet. Se isso 
não funcionar, a Superinteligência simplesmente iria descobrir uma 
forma de sair da caixa, ou de passar através da caixa, de alguma 
outra forma. 
Tendo em vista a combinação de estar obcecada por uma diretriz de 
forma amoral, e a capacidade de facilmente enganar humanos, 
parece que quase todas as Inteligências Artificiais seriam de regra 
hostis, a não ser que fossem cuidadosamente programadas em 
primeiro lugar com isso em mente. Infelizmente, se por um lado é 
fácil construir uma Inteligência Artificial Superficial Amigável, por 
outro construir uma que permaneça amigável quando se tornar uma 
Superinteligência é um enorme desafio, senão algo impossível. 
Está claro que para ser Amigável, uma Superinteligência precisa não 
ser hostil e nemindiferente em relação aos humanos. Precisamos 
projetar a codificação fundamental de uma Inteligência Artificial de 
um modo que a deixe com uma profunda compreensão dos valores 
humanos. Mas isso é mais difícil do que parece. 
Por exemplo e se tentássemos alinhar um sistema de Inteligência 
Artificial com nossos valores e a deixássemos com a diretriz de 
“fazer as pessoas felizes?” [19] No momento em que ela se tornasse 
inteligente o suficiente, ela descobriria que a forma mais eficiente de 
cumprir sua diretriz é implantando eletrodos dentro da cabeça das 
pessoas e estimulando seus centros de prazer. A seguir percebe que 
pode aumentar a eficiência desligando todas as partes do cérebro, 
deixando as pessoas tão inconscientemente felizes quanto vegetais. 
Se o comando fosse “maximize a felicidade humana”, isso pode ser 
cumprindo acabando com todos os seres humanos juntos a fim de 
produzir enormes tonéis de massa cerebral humana em um 
maximizado estado de felicidade. Nós estaríamos gritando “Espere 
não é isso que queremos dizer!” quando isso acontecesse, mas seria 
tarde demais. O sistema não permitiria que ninguém bloqueasse seu 
caminho até sua diretriz. 
Se programássemos uma Inteligência artificial com a diretriz de 
fazer coisas que nos façam rir, após sua decolagem ela paralizaria 
nossos músculos faciais em sorrisos permanentes. Programe-a para 
nos manter seguros, e ela poderá nos aprisionar em casa. Talvez a 
solicitemos para acabar com a fome no mundo, e ela pense “Isso é 
fácil” e então simplesmente elimina todos os humanos. Ou 
encarregue-a da tarefa de “Preservar a vida tanto quando possível, e 
ela matará todos os humanos, pois eles matam mais vida no planeta 
do que qualquer outra espécie. 
Diretrizes como essa não bastam. Então e se nós fizéssemos sua 
diretriz “Preservar esse específico código de moralidade no mundo”, 
e a ensinássemos um conjunto de princípios morais. Mesmo 
deixando de lado o fato de que os seres humanos nunca seriam 
capazes de concordar unanimemente com um simples conjunto de 
regras morais, dar esse comando a uma Inteligência 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Artificial aprisionariaa humanidade em nosso entendimento 
moderno sobre moralidade por toda a eternidade. Dentro de mil 
anos, isso seria tão devastador para as pessoas como seria 
devastador para nós sermos permanentemente forçados a obedecer 
os ideais das pessoas na Idade Média. 
Não, nós temos que programar a Inteligência Artificial de uma forma 
que seja capaz à humanidade prosseguir evoluindo. De tudo o que li, 
a melhor sugestão que alguém deu foi a de Eliezer Yudkowsky, ao 
propor uma diretriz que chamou de Coerente e Extrapolada 
Vontade. A diretriz central da Inteligência Artificial seria: 
Nossa coerente e extrapolada vontade é obter o que desejaríamos 
caso soubéssemos mais, pensássemos mais rápido, fôssemos mais 
parecidos com as pessoas que gostaríamos de ser, tendo crescido a 
alturas mais elevadas conjuntamente; nossa vontade está no ponto 
em que a extrapolação mais converge do que diverge, no ponto em 
que nossos desejos são coerentes e não nos atrapalham; extrapolada 
como desejamos que fosse extrapolada, interpretada da forma que 
desejamos que fosse interpretada [20]. 
 Estou entusiasmado pelo destino da humanidade depender que um 
computador dê a essa diretriz fluida uma interpretação e execução 
previsível e sem surpresas? Decididamente não. Mas acho que com 
análise suficiente e com supervisão de pessoas inteligentes o 
suficiente, poderemos ser capazes de descobrir como criar uma 
Superinteligência Amigável. 
E tudo estaria bem se as únicas pessoas trabalhando na construção 
de uma Superinteligência fossem os pensadores brilhantes, 
arrojados e prudentes que residem na Avenida da Ansiedade. 
Mas há vários tipos de governos, empresas, militares, laboratórios e 
organizações do mercado negro trabalhando com todo o tipo de 
Inteligência Artificial. Muitos deles estão tentando construir uma 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
Inteligência Artificial que possa aprimorar a si mesma, e em algum 
ponto alguém fará alguma coisa inovadora com o tipo certo de 
sistema, e teremos uma Superinteligência no planeta. A estimativa 
média dos especialistas coloca esse momento em 2060; Kurzweil 
coloca em 2045; Bostrom acha que pode acontecer a qualquer 
momento entre dez anos a partir de agora e o fim do século, mas ele 
acredita que quando isso ocorrer, irá nos pegar de surpresa com 
uma rápida decolagem. Ele descreve a situação da seguinte forma 
[21]: 
“Perante a perspectiva de uma explosão da inteligência, nós humanos 
somos como pequenas crianças brincando com uma bomba. Esse é o 
descompasso entre o poder daquilo com que estamos brincando e a 
imaturidade da nossa conduta. 
A Superinteligência é um desafio para o qual não estamos 
preparados agora e não estaremos ainda por muito tempo. Temos 
pouca ideia de quando a detonação ocorrerá, mas se aproximamos a 
bomba de nossa orelha podemos ouvir o fraco som de um 
tiquetaque.” 
Maravilha. E nós não podemos espantar todas as crianças para longe 
da bomba – há muitos grupos pequenos e grandes trabalhando 
nisso, e porque muitas das técnicas para construir sistemas de 
Inteligência Artificial inovadores não requerem um grande capital, o 
desenvolvimento pode ocorrer nos cantos e recantos de nossa 
sociedade, sem monitoração. Também não há maneira de avaliar o 
que está acontecendo, porque muitos dos grupos trabalhando nisso 
(governos sorrateiros, mercados negros, organizações terroristas, 
pequenas empresas de tecnologia como a ficcional Robótica) 
tentarão manter o desenvolvimento em segredo de seus 
competidores. 
A coisa especialmente problemática sobre esses grandes e variados 
grupos desenvolvendo Inteligência Artificial é que eles tendem a 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
entrar numa corrida em alta velocidade – a medida em que 
desenvolvem sistemas mais e mais inteligentes, eles desejarão 
derrotar seus competidores na base do soco enquanto prosseguem. 
Os grupos mais ambiciosos estão se movendo ainda mais rápido, 
absorvido por sonhos de dinheiro e prêmios e poder e fama que 
sabem que terão assim que chegarem à primeira Inteligência 
Artificial de nível humano [20]. E quando você está correndo o mais 
rápido que pode, não há muito tempo para parar e pensar nos 
perigos. Ao contrário, o que provavelmente eles devem estar 
fazendo é programar seus sistemas iniciais com diretrizes muito 
simples e reducionistas – só para “fazer a Inteligência Artificial 
funcionar”. No fim das contas, eles acreditam que, se descobrirem 
como construir um elevado nível de inteligência em um 
computador, poderão sempre voltar atrás e revisar a diretriz 
principal, dessa vez considerando a questão da segurança humana. 
Certo…? 
Bostrom e muitos outros também acreditam que a hipótese mais 
provável é que o primeiro computador a atingir a superinteligência 
irá imediatamente considerar uma vantagem estratégica ser o único 
sistema de Superinteligência Artificial do mundo. E no caso de uma 
rápida decolagem, se ele atingir a superinteligência apenas alguns 
poucos dias antes de uma segunda máquina conseguir, ele já estará 
bem adiante em inteligência para efetivamente e permanentemente 
suprimir todos os competidores. Bostrom chama isso de 
uma vantagem estratégica decisiva, o que faria com que a primeira 
Superinteligência Artificial fosse o que é chamado de singleton: uma 
Superinteligência Artificial que pode submeter o mundo inteiro ao 
seu capricho, seja esse capricho nos conduzir à imortalidade, varrer 
a humanidade da existência ou transformar o universo numa 
quantidade infinita de clipes de papel. 
O fenômeno chamado singleton pode funcionar a nosso favor ou nos 
conduzir à destruição. Se as pessoas pensando muito sobre a 
inteligência artificial e segurança humana conseguirem desenvolver 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
https://pt.wikipedia.org/wiki/Singleton
http://www.salon.com/2014/08/17/our_weird_robot_apocalypse_why_the_rise_of_the_machines_could_be_very_strange/
uma maneira a prova de falhas de criar uma Superinteligência antes 
que qualquer Inteligência Artificial atinja o nível humano de 
inteligência, a primeira Superinteligência Artificial pode ser 
amigável [21]. Ela então poderá usar a vantagem estratégica decisiva 
para assegurar o status de singleton e facilmente vigiar o 
surgimento de qualquer Inteligência Artificial Hostil que esteja 
sendo desenvolvida. Estaremos em muito boas mãos. 
Mas se as coisas tomarem o outro rumo – se a corrida global pelo 
desenvolvimento de Inteligência Artificial chegar ao ponto da 
decolagem da Superinteligência Artificial antes de ser desenvolvida 
a ciência sobre como garantir nossa segurança nesse caso, é muito 
provável que uma Superinteligência Hostil como Turry surja 
como singleton e nós a consideraremos uma catástrofe existencial. 
Em relação a para onde os ventos estão nos levando, há muito 
dinheiro a se ganhar criando inovadoras tecnologias de inteligência 
artificial do que há em financiamento de pesquisas sobre segurança 
relativa a inteligência artificial… 
Essa pode ser a corrida mais importante da história humana. Há 
uma chance real de que terminemos nosso reinado de Soberanos da 
Terra – e se estamos nos dirigindo a uma abençoada aposentadoria 
ou direto para a forca, isso ainda é um ponto a ser definido. 
___________ 
Tenho alguns sentimentos ambivalentes e estranhos dentro de mim 
agora mesmo. 
De um lado, pensando em nossa espécie, é como se tivéssemos um e 
apenas um tiro para dar do jeito certo. A primeira Superinteligência 
que criarmos também provavelmente a última – e considerando o 
quanto cheios de falhas é a maioria dos produtos em sua versão 1.0, 
isso é bem assutador. Do outro lado, Nick Bostrom sinaliza com a 
http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html
grande vantagem que temos: precisamos fazer o primeiro 
movimento.Está em nosso poder fazer isso com cuidado e 
supervisão suficiente para darmos a nós mesmos uma grande 
chance de sucesso. E o quão altas são as apostas? 
 
 
Se uma Superinteligência realmente ocorrer neste século, e se o 
resultado disso for realmente tão radical (e permanente) quanto a 
maioria dos especialistas acham que será, temos uma gigantesca 
responsabilidade em nossos ombros. Todas as vidas humanas que 
existirão no próximo um milhão de anos estão silenciosamente 
olhando para nós, esperando tanto quanto podem que nós não 
façamos bobagem. Temos uma chance de sermos os humanos que 
darão a todos os futuros humanos o presente da vida, e talvez de 
uma vida eterna e sem dor. Ou nós seremos os responsáveis por 
estragar tudo – por deixar essa espécie incrivelmente única, com 
sua música e sua arte, sua curiosidade e suas gargalhadas, suas 
infindáveis descobertas e invenções, chegarem a um fim triste e 
sem cerimônia. 
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/plano1.jpg
Quando penso sobre essas coisas, a única coisa que quero é que 
aproveitemos nosso tempo e sejamos incrivelmente cuidadosos em 
relação à Inteligência Artificial. Nada na existência é mais 
importante do que fazermos isso certo – não importa quanto tempo 
precisamos para executar essa tarefa. 
Mas aíiiiiiiiii 
Eu penso sobre não morrer. 
Não. Morrer. 
E a situação começa a parecer mais ou menos com isso: 
 
E daí começo a considerar que a música e a arte humanas são boas, 
mas não tão boas assim, e um monte de músicas e obras de arte são 
simplesmente ruins. E um monte de pessoas tem gargalhadas 
irritantes, e aquelas pessoas do próximo um milhão de anos não 
estão na verdade esperando por coisa alguma pois elas não existem. 
http://ano-zero.com/wp-content/uploads/sites/4/2015/09/plano2.jpg
E talvez nós não precisemos ser extremamente cuidadosos, já que 
afinal quem quer mesmo ser assim? 
Porque seria uma chatice enorme se os seres humanos descobrissem 
como curar a mortebem antes de eu morrer. 
Muito desse cara-ou-coroa rolou na minha cabeça no último mês. 
Mas não importa qual sua opinião, isso é provavelmente algo sobre o 
qual você deveria estar pensando e conversando e colocando seu 
esforço mais do que estamos neste exato momento. 
Isso me faz lembrar de Game of Thrones, quando as pessoas estão 
tipo “Nós estamos tão ocupados lutando uns contra os outros mas a 
coisa em que realmente deveríamos estar interessados é no que está 
vindo do norte da muralha“. Estamos na estrada da vida, discutindo 
sobre cada tema possível bem no meio da estrada, e ficando 
estressados sobre todos os nossos problemas nessa estrada, quando 
há uma boa chance de que estejamos prestes a ser expulsos da 
estrada. 
E quando isso acontecer, nenhum desses problemas vai mais 
importar. Dependendo do lado para o qual iremos, os problemas ou 
serão todos facilmente resolvidos ou não teremos mais problemas 
porque pessoas mortas não têm problemas. 
É por isso que pessoas que entendem de Superinteligência Artificial 
chamam-na de última invenção que faremos – e o último desafio que 
enfrentaremos. 
Então vamos falar sobre isso. 
___________ 
Fontes 
Se você está interessado em ler mais sobre esse assunto, confira os 
artigos abaixo ou um desses três livros: 
A análise mais rigorosa e aprofundada sobre os perigos da IA: 
Nick Bostrom – Superintelligence: Paths, Dangers, Strategies 
A melhor abordagem geral de todo o tema e é divertido de ler: 
James Barrat – Our Final Invention 
Controverso e muito divertido. Cheio de fatos e gráficos e 
projeções do futuro de enlouquecer qualquer um: 
Ray Kurzweil – The Singularity is Near 
Artigos científicos e textos: 
Nils Nilsson – The Quest for Artificial Intelligence: A History of 
Ideas and Achievements 
Steven Pinker – How the Mind Works 
Vernor Vinge – The Coming Technological Singularity: How to 
Survive in the Post-Human Era 
Nick Bostrom – Ethical Guidelines for A Superintelligence 
Nick Bostrom – How Long Before Superintelligence? 
Vincent C. Müller and Nick Bostrom – Future Progress in Artificial 
Intelligence: A Survey of Expert Opinion 
Moshe Y. Vardi – Artificial Intelligence: Past and Future 
http://www.amazon.com/gp/product/0199678111/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0199678111&linkCode=as2&tag=wabuwh00-20&linkId=LBOTX2G2R72P5EUA
http://www.amazon.com/gp/product/B00CQYAWRY/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=B00CQYAWRY&linkCode=as2&tag=wabuwh00-20&linkId=3SF7IUFSRCKH7C4J
http://www.amazon.com/gp/product/0143037889/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0143037889&linkCode=as2&tag=wabuwh00-20&linkId=54Q62R5PYJBEENTP
http://www.amazon.com/gp/product/0521122937/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0521122937&linkCode=as2&tag=wabuwh00-20&linkId=QIJQME4U3J2KZRRY
http://www.amazon.com/gp/product/0521122937/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0521122937&linkCode=as2&tag=wabuwh00-20&linkId=QIJQME4U3J2KZRRY
http://www.amazon.com/gp/product/1491514965/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=1491514965&linkCode=as2&tag=wabuwh00-20&linkId=NJ47RPDRBVZA6QPU
https://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
https://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
http://www.cs.nyu.edu/faculty/davise/papers/Bostrom.pdf
http://www.nickbostrom.com/superintelligence.html
http://www.nickbostrom.com/papers/survey.pdf
http://www.nickbostrom.com/papers/survey.pdf
http://cacm.acm.org/magazines/2012/1/144824-artificial-intelligence-past-and-future/fulltext
Russ Roberts, EconTalk – Bostrom Interview and Bostrom Follow-Up 
Stuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or 
Failing To 
Susan Schneider – Alien Minds 
Stuart Russell and Peter Norvig – Artificial Intelligence: A Modern 
Approach 
Theodore Modis – The Singularity Myth 
Gary Marcus – Hyping Artificial Intelligene, Yet Again 
Steven Pinker – Could a Computer Ever Be Conscious? 
Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic 
Risks 
World Economic Forum – Global Risks 2015 
John R. Searle – What Your Computer Can’t Know 
Jaron Lanier – One Half a Manifesto 
Bill Joy – Why the Future Doesn’t Need Us 
Kevin Kelly – Thinkism 
Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response) 
Stephen Hawking – Transcending Complacency on Superintelligent 
Machines 
http://www.econtalk.org/archives/2014/12/nick_bostrom_on.html
http://www.econtalk.org/archives/2014/12/bostrom_follow-.html
https://intelligence.org/files/PredictingAI.pdf
https://intelligence.org/files/PredictingAI.pdf
http://schneiderwebsite.com/Susan_Schneiders_Website/Research_files/12%20Schneider%20Newest-Alien%20Minds_1.pdf
http://51lica.com/wp-content/uploads/2012/05/Artificial-Intelligence-A-Modern-Approach-3rd-Edition.pdf
http://51lica.com/wp-content/uploads/2012/05/Artificial-Intelligence-A-Modern-Approach-3rd-Edition.pdf
http://www.growth-dynamics.com/articles/Kurzweil.htm
http://www.newyorker.com/tech/elements/hyping-artificial-intelligence-yet-again
http://pinker.wjh.harvard.edu/articles/media/1997_08_18_usnewsworldreport.html
https://intelligence.org/files/BasicAIDrives.pdf
https://intelligence.org/files/BasicAIDrives.pdf
http://www.nybooks.com/articles/archives/2014/oct/09/what-your-computer-cant-know/
http://edge.org/conversation/one-half-a-manifesto
http://archive.wired.com/wired/archive/8.04/joy.html
http://kk.org/thetechnium/2008/09/thinkism/
http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near/
http://www.technologyreview.com/view/425818/kurzweil-responds-dont-underestimate-the-singularity/
http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html
Kurt Andersen – Enthusiasts and Skeptics Debate Artificial 
Intelligence 
Terms of Ray Kurzweiland Mitch Kapor’s bet about the AI timeline 
Ben Goertzel – Ten Years To The Singularity If We Really Really Try 
Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions 
Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of 
Artificial Reason 
Stuart Armstrong – Smarter Than Us: The Rise of Machine 
Intelligence 
Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on 
the Future 
Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic 
AGI Risk: A Survey 
Jeremy Howard TED Talk – The wonderful and terrifying 
implications of computers that can learn 
ESCRITO POR: 
 
http://www.vanityfair.com/culture/2014/11/artificial-intelligence-singularity-theory
http://www.vanityfair.com/culture/2014/11/artificial-intelligence-singularity-theory
http://longbets.org/1/
http://goertzel.org/TenYearsToTheSingularity.pdf
http://www.arthurcclarke.net/?scifi=3
http://www.amazon.com/gp/product/0262540673/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0262540673&linkCode=as2&tag=wabuwh00-20&linkId=ZHBAVUQOM6SIGYHG
http://www.amazon.com/gp/product/0262540673/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=0262540673&linkCode=as2&tag=wabuwh00-20&linkId=ZHBAVUQOM6SIGYHG
http://www.amazon.com/gp/product/B00IB4N4KU/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=B00IB4N4KU&linkCode=as2&tag=wabuwh00-20&linkId=FF3IC2DJNEHA5IAW
http://www.amazon.com/gp/product/B00IB4N4KU/ref=as_li_tl?ie=UTF8&camp=1789&creative=390957&creativeASIN=B00IB4N4KU&linkCode=as2&tag=wabuwh00-20&linkId=FF3IC2DJNEHA5IAW
http://www.wired.com/2012/06/mf_icons_diamandis/all/
http://www.wired.com/2012/06/mf_icons_diamandis/all/
http://intelligence.org/files/ResponsesAGIRisk.pdf
http://intelligence.org/files/ResponsesAGIRisk.pdf
http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn?language=en#t-5550
http://www.ted.com/talks/jeremy_howard_the_wonderful_and_terrifying_implications_of_computers_that_can_learn?language=en#t-5550
http://ano-zero.com/author/timurban/
Formado em Ciências Políticas pela Harvard University, é autor do 
site Wait But Why e fundador da ArborBridge.

Mais conteúdos dessa disciplina