SINGULARIDADES TECNOLÓGICAS, EXPLOSÕES DE INTELIGÊNCIA
E O FUTURO DA SENCIÊNCIA BIOLÓGICA

"O CÉREBRO é mais amplo do que o céu,
Pois, colocai-os lado a lado,
Um o outro irá conter
Facilmente, e a vós também."

(Emily Dickinson)

  • Repousará o futuro da vida do universo nos descendentes biológicos dos Homo Sapiens? Ou em superinteligências pós-biológicas – uma transição conhecida por seus “crentes” como A Singularidade?

  • Se o futuro da vida repousa em superinteligências pós-biológicas, então talvez possamos antecipar qualquer espaço para “uploads” – emulações cerebrais completas e funcionais dos seres humanos orgânicos? Ou estes serão substituídos por algum tipo de super-IAG (Inteligência Artificial Genérica) recursivamente auto-aperfeiçoante?

  • • Se o futuro repousa em super-IAGs, serão estas sencientes? Ou será a consciência algo puramente incidental da inteligência – um simples detalhe de implementação das mentes primordiais orgânicas?

RESUMO ESTENDIDO

UMA EXPLOSÃO DE INTELIGÊNCIA?

A estrutura desse ensaio será a seguinte: a história e os múltiplos sentidos dos termos “Singularidade [Tecnológica]” e “Explosão de Inteligência”. Tais conceitos serão mapeados desde suas origens nos trabalhos do polímata John von Neumann (1950), do matemático I. J. Good (1965) e do cientista da computação Vernor Vinge (1983). Feita a exploração dos respectivos termos, abordar-se-á o recente surgimento dos mesmos na cultura popular: “2045, O Ano em que o Homem se Tornará Imortal” (Revista Time, 10 de fevereiro de 2011). A Lei de Moore e a Lei dos Retornos Acelerados de Kurzweil também serão revisadas.

Qual será a natureza do auto-aperfeiçoamento recursivo na ausência de um “eu” a ser aperfeiçoado? Será o eixo prazer/dor da vida baseada em carbono substituído por “funções de utilidade” formais de máquinas não biológicas? Para responder essa pergunta, um cálculo ecologicamente naturalístico da inteligência deve ser formulado. Será o “g” verdadeiro ou um mero artefato estatístico? Para tanto, deverá ser traçada uma distinção entre a “cegueira mental” e a inteligência dos autistas, considerando os testes de QI, bem como a tomada de perspectiva, a leitura mental e a inteligência “maquiavélica” que permitiu uma espécie de primata social dominar a vida na Terra.

Dando prosseguimento, também serão criticamente analisadas as reivindicações empíricas contrastantes e os pressupostos de fundo das duas principais figuras do movimento singularitariano moderno: Ray Kurzweil (“The Singularity is Near”) e Eliezer Yudkowsky do Singularity Institute for Artificial Intelligence (SIAI). Kurzweil prevê o desenvolvimento de um ecossistema de seres humanos biológicos aprimorados, híbridos homem-máquina, “uploads” e super-IAGs. Por outro lado, Yudkowsky vale-se da analogia da cadeia de fissões nucleares que entra em estado crítico para antever um incontrolável ciclo de retorno positivo que se “propagaria rapidamente”, levando ao surgimento de uma única super-IAG. Infelizmente, o mais provável é que essa super-IAG única não seja amistosa para com os seres humanos. O Singularity Institute for Artificial Intelligence foi criado com a finalidade de evitar esse tipo de resultado, bem como para promover uma “relação amigável” entre seres humanos e as novas Inteligências Artificiais.

Após avaliar a cadeia de inferências que sustentam esse cenário, concluir-se-á que os riscos da maldade humana primitiva superam a indiferença das máquinas. Isso ocorre principalmente porque a maior fonte subjacente de catástrofes globais e riscos existenciais desse século não se encontra nas super-IAGs, mas sim no comportamento competitivo e dominante dos primatas humanos. Tal comportamento danoso exprime-se na capacidade que estes teriam de utilizar “Inteligências Artificiais Limitadas” para criar soldados biologicamente “projetados” com a finalidade de lutar em suas guerras sangrentas. Felizmente, a futorologia baseada em extrapolações tem suas falhas.

OMENTES ORGÂNICAS & ZUMBIS DIGITAIS:
A CONSCIÊNCIA É IMPORTANTE?

Uma métrica de progresso nas Inteligências Artificiais permanece inflexivelmente imutável. Apesar do crescimento exponencial do número de transistores em um microchip, do aumento da velocidade do clock interno dos microprocessadores, do enorme acréscimo no poder computacional medido em MIPS (Milhões de Instruções por Segundo), da imensa queda nos custos de fabricação de transistores e dos preços de cota de RAMs dinâmicas, etc. A despeito de tudo isso, os gráficos de análise da taxa de crescimento da senciência digital não demonstram nenhuma espécie de aumento exponencial, crescimento linear, ou qualquer outro tipo de progresso significativo. Nossos computadores permanecem meros zumbis.

No que diz respeito a alguns pressupostos filosóficos bastante modestos, os computadores digitais não eram capazes de experienciar sensações em 1946 (cf. ENIAC), nem são seres conscientes em 2011 (cf. “Watson”); tampouco os pesquisadores têm ideia de que tipo de senciência poderia ser “programada” no futuro.

No que concerne os fundamentos teóricos, pode-se dizer que nenhum robô, ou computador digital de arquitetura von Neumann, ou mesmo uma computação clássica que utilize enormes paralelos “neuralmente inspirados”, poderá ser consciente de maneira não trivial, ou estará apta a executar softwares que não sejam trivialmente conscientes, ou terá a capacidade de emular o poder computacional do cérebro ou da mente humana.

Alguns pesquisadores das inteligências artificiais rejeitam a nossa abundante diversidade de qualia – o termo filosófico para a qualidade dos inúmeros “sentimentos crus” da consciência – como sendo um epifenômeno e, portanto, funcionalmente irrelevante para a inteligência. O que eles poderiam fazer? Contudo, uma vez que epifenômenos, por definição, são causalmente impotentes, presume-se que essa falta de eficiência causal estimularia novos estudos acerca de sua existência.

Argumentar-se-á que, se a fenomenologia for a “marca” do mental, então falar sobre “mentes digitais” seria antropomórfico. Além disso, apresentar-se-á uma explicação acerca do Paradoxo de Moravec, isto é, a descoberta inesperada feita por pesquisadores da robótica de que um alto nível de raciocínio necessita relativamente de pouca computação, considerando que, supostamente, habilidades sensório-motoras de baixo nível requerem vastos recursos computacionais. Essa seção do texto será concluída com uma discussão sobre a tese de Church-Turing e suas implicações para a senciência digital.

OIS OBSTÁCULOS PARA UMA SINGULARIDADE TECNOLÓGICA

  1. SIMULAÇÃO DE MUNDO E O BINDING PROBLEM
    O biólogo evolucionista Theodosius Dobzhansky acertadamente observou que “nada em biologia faz sentido exceto à luz da evolução”. Da mesma forma, nada no futuro da vida inteligente faz sentido exceto à luz da solução do Difícil Problema da Consciência e da resolução da Lacuna Explicativa de Levine. O sucesso evolutivo de robôs orgânicos tem sido impulsionado pela capacidade dos mesmos de executar de “maneira egocêntrica” simulações de mundo macroscópicas em tempo real – algo que um realista ingênuo poderia chamar apenas de “mundo”.

    Diferentemente de computadores digitais clássicos, os computadores orgânicos são capazes de “vincular” [“bind”] diversas características (bordas, cores, movimento, etc) a objetos unitário-fenomenais incorporados a simulações de mundo apreendidas por um “eu” momentaneamente unitário. Por sua vez, essas simulações são executadas (quase que) em tempo real. Em certas ocasiões, uma vinculação de objeto e/ou uma unidade da consciência acaba se rompendo parcialmente, gerando resultados devastadores (cf. akinetopsia ou “prejuízo da percepção de movimentos”, simultanagnosia, ou a inabilidade de apreender mais de um único objeto por vez, etc.).

    No entanto, nossas simulações de padrões de aptidão pertinente no mundo, de forma independente da esfera mental, normalmente são contínuas. Neurônios, (mal) interpretados como processadores clássicos, são lamentavelmente lentos, e demonstram frequências de pico que mal chegam a duzentos por segundo. Por outro lado, processadores de silício são visivelmente milhões de vezes mais rápidos. Contudo, diferentemente das CPUs de robôs clássicos, um cérebro ou mente orgânicos transmitem objetos unitários dinâmicos e simulações de mundo unitárias com uma “taxa de atualização” de muitos bilhões por segundo (cf. a persistência da visão como, por exemplo, assistir um filme exibido a apenas trinta quadros por segundo).

    Tais simulações intermodularmente emparelhadas tomam a forma do que ocorre enquanto mundo macroscópico: uma espetacular simulação egocêntrica executada pelo sistema nervoso central vertebrado, que tira partido do substrato quântico fundamental desse mesmo mundo.

    Os teóricos da mente quântica, em especial Roger Penrose e Stuart Hameroff, comumente se concentram na habilidade de cérebros matematicamente inclinados a efetuar funções não computáveis em matemática superior. Deveras se presume que a pressão de seleção para o desenvolvimento de tais funções seja inexistente. De maneira mais geral, a capacidade relativa ao pensamento linguístico seriado e ao raciocínio lógico-matemático formal é uma novidade evolutiva tardia, executada por um frágil e lento mecanismo virtual “rodado” em seu relativo quântico. Por sua vez, a enorme capacidade adaptativa de executar simulações de mundo unitárias, as quais são simultaneamente povoadas por muitas centenas de objetos dinâmicos, possibilitam aos robôs orgânicos solucionar os desafios computacionais de navegar em um ambiente hostil, o qual deixaria o supercomputador clássico mais veloz funcionando até o Dia do Juízo Final.

    A Física Teórica (cf. o limite de Bekenstein) nos mostra que recursos informacionais, enquanto concebidos classicamente, não são apenas físicos, mas finitos e escassos. Com efeito, evocar a equivalência computacional e questionar se uma máquina de Turing clássica poderia executar uma simulação de mundo macroscópica equivalente à humana, seria como indagar se essa máquina estaria apta a fatorar números de mil e quinhentos dígitos em tempo real (ou seja, não). Enquanto mentes orgânicas são ultravelozes, computadores em série clássicos são lentos.

    Pode-se argumentar que simulações de mundo fenomenais “independentes de substrato” seriam impossíveis pelo mesmo motivo que a valência de estruturas químicas “independente de substrato” também seria. A realidade possui apenas um nível ontológico, ainda que seja passível de descrição em diferentes níveis de abstração computacional. Contra Marvin Minsky (“As capacidades humanas mais difíceis de modificar são as inconscientes”), as capacidades mais difíceis de serem modificadas por roboticistas são as intensamente conscientes: nossos mundos virtuais coloridos, barulhentos, táteis e, por vezes, demasiado inabitáveis. Além disso, pode-se fazer uma comparação entre as proezas neurocomputacionais da mente e/ou cérebro de um marimbondo – cujas simulações de mundo são executadas em menos de um milhão de neurônios – e as de um “modesto” supercomputador Cray.

  2. IGNORÂNCIA INVENCÍVEL: OS ZUMBIS DIGITAIS PODERIAM TER UMA TEORIA DA MENTE?:
    O segundo obstáculo para a criação de uma inteligência artificial genérica de nível humano, bem como o desenvolvimento de uma super-IAG recursivamente auto-aperfeiçoante está diretamente ligado a encontrar uma solução para o primeiro desafio. A evolução da distinta inteligência humana, a qual permanece no topo de nossas proezas de simulação de mundo, tem sido guiada pela interação entre nossa sintaxe gerativa e as capacidades de leitura de mente superiores (cf. a hipótese do Símio Maquiavélico). De maneira crítica, tendo em vista o desenvolvimento da referida IAG, essa habilidade de leitura de mentes em tempo real é parasítica no que concerne o wetware neural em criar simulações de mundo de primeira ordem povoadas por agentes intencionais cujas mentes possam ser lidas.

    Por outro lado, faz-se necessário ressaltar que nem todos os seres humanos possuem a capacidade de obter uma teoria da mente. Dessa forma, pessoas com desordens do espectro autista (DEA) não só fracassam em compreender outras mentes, como também não conseguem alcançar a compreensão da própria mente. Em outras palavras, a inteligência autista em grau mais elevado não possui a noção de um “eu” que possa ser aperfeiçoado, recursivamente ou não. Ademais, autistas também não são capazes de “ler” suas próprias mentes. A inabilidade da mente autista é similar a incapacidade dos computadores clássicos de compreender as mentes de agentes intencionais e/ou seu próprio “estado zumbi” – o que Daniel Dennett chama de paralelos de postura intencional. Mesmo com o auxílio de algoritmos inteligentes, a capacidade de autistas ultra-inteligentes de prever o comportamento de robôs orgânicos atentos [mindful], baseando-se exclusivamente na postura física (e.g. solucionando a equação de Schrödinger relativa à questão do agente intencional), é bastante limitada. Por conseguinte, argumentar-se-á que – em comum com autistas “idiot savants” – as inteligências artificiais clássicas autônomas sempre estarão vulneráveis às mais baixas artimanhas dos símios maquiavélicos e às grandes capacidades dos nossos descendentes transumanos.

A SENTIENCE EXPLOSION?

O historiador Lewis Namier certa vez observou que “alguém poderia esperar que as pessoas lembrariam do passado e imaginariam o futuro, mas o fato é que... elas imaginam o passado e lembram do futuro”. O “futuro”, muitos de nós conseguem lembrar, é uma mistura de histórias de ficção científica infantis, filmes de Hollywood, Skynet e HAL. De maneira proverbial, a tecnologia dominante de um dado período proporciona as metáforas-raiz da mente. Por sua vez, nossa metáfora dominante é o computador digital. (“O que mais a mente poderia ser?”) A ascensão da computação quântica artificial ainda nesse século promete alterar a metáfora-raiz da nossa mente, da vida e do universo. Contudo, existem extraordinárias restrições físicas para se construir mentes quânticas artificiais, quanto mais para o desenvolvimento de robôs com suporte para tais mentes quânticas. Por sua vez, tais restrições tornam bastante improváveis as perspectivas da Singularidade ou da iminente dominação mundial por máquinas dotadas de inteligência artificial.

Contra Max Tegmark, a vigorosa capacidade dos neurônios orgânicos para resistir à decoerência termicamente induzida a ponto de desenvolverem um trabalho computacionalmente útil quer dizer que o futuro pertence às mentes biológicas (pós)humanas auxiliadas pelos zumbis digitais. Deveras, o futuro não diz respeito a “uploads” ou IAGs não biológicas. A (pós)humanidade poderá antecipar a amplificação de inteligência através da reescrita genética e do aumento por meio de máquinas. De forma efetiva, pode-se imaginar ilimitada abundância material via nanotecnologia molecular; paraísos projetados em realidade virtual imersiva; o fim de doenças e do envelhecimento; a abolição do sofrimento no cone de luz à nossa frente; a opção de uma vida baseada inteiramente em gradientes de felicidade inteligente; e talvez a radiação adaptativa da senciência em toda a galáxia. Enfim, sem a senciência, nada importa.

* * *

REFERÊNCIAS BIBLIOGRÁFICAS:

Baron-Cohen, S, (1995). "Mindblindness: an essay on autism and theory of mind". (MIT Press/Bradford Books).

Bostrom, N. “Existential risks: analyzing human extinction scenarios and related hazards” (2002). Journal of Evolution and Technology, 9.

Brooks, R. (1991). "Intelligence without representation", Artificial Intelligence 47 (1-3): 139–159, doi:10.1016/0004-3702(91)90053-M.

Byrne & Whiten, A. (1988). "Machiavellian intelligence". (Oxford: Oxford University Press).

Chalmers, DJ. (2010). “The singularity: a philosophical analysis”. http://consc.net/papers/singularity.pdf

Chalmers DJ. (1995). Facing up to the hard problem of consciousness. Journal of Consciousness Studies 2, 3, 200-219.

Churchland, P. (1989). "A Neurocomputational Perspective: The Nature of Mind and the Structure of Science". (MIT Press).

Clark, A. (2008). "Supersizing the Mind: Embodiment, Action, and Cognitive Extension". (Oxford University Press, USA).

Cochran, G. Harpending, H. (2009). "The 10,000 Year Explosion: How Civilization Accelerated Human Evolution". (Basic Books).

Cohn, N. (1957). "The Pursuit of the Millennium: Revolutionary Millenarians and Mystical Anarchists of the Middle Ages". (Pimlico).

Dennett, D. (1987). "The Intentional Stance" (MIT Press).

Deutsch, D. (1997). "The Fabric of Reality". (Penguin).

Deutsch, D. (2011). "The Beginning of Infinity". (Penguin).

Good, IJ. (1965). “Speculations concerning the first ultraintelligent machine”, Franz L. Alt and Morris Rubinoff, ed., Advances in computers (Academic Press) 6: 31–88.

Hameroff, S. (2006). "Consciousness, neurobiology and quantum mechanics" in: The Emerging Physics of Consciousness, (Ed.) Tuszynski, J. (Springer).

Huxley, A. (1932). "Brave New World". (Chatto and Windus).

Kurzweil. R. (2005). "The Singularity Is Near". (Viking).

Kurzweil, R. (1998). "The Age of Spiritual Machines". (Viking).

Levine, J. (1983). "Materialism and qualia: The explanatory gap". Pacific Philosophical Quarterly 64 (October):354-61.

Lockwood, L. (1989). "Mind, Brain, and the Quantum". (Oxford University Press).

Metzinger, T.(2009). "The Ego Tunnel: The Science of the Mind and the Myth of the Self". (Basic Books).

Minsky, M. (1987). "The Society of Mind". (Simon and Schuster).

Moravec, H. (1990). "Mind Children: The Future of Robot and Human Intelligence". (Harvard University Press).

Penrose, R. (1994). "Shadows of the Mind: A Search for the Missing Science of Consciousness". (MIT Press).

Shulgin, A. (1995). "PiHKAL: A Chemical Love Story". (Transform Press, U.S.).

Revonsuo, A. (2005) "Inner Presence: Consciousness as a Biological Phenomenon". (MIT Press).

Revonsuo, A. and Newman, J. (1999). Binding and Consciousness. Consciousness and Cognition 8, 123-127.

Rumelhart, D.E., J.L. McClelland and the PDP Research Group (1986). "Parallel Distributed Processing: Explorations in the Microstructure of Cognition". Volume 1: Foundations. (Cambridge, MA: MIT Press).

Seager, W. (1999). "Theories of Consciousness". (Routledge).

Simon S., Barrett, J., Kent, A., Wallace, D., (2010). "Many Worlds?: Everett, Quantum Theory, and Reality". (Oxford University Press).

Shulman, C. & Sandberg, A. “Implications of a software-limited singularity” (2010). Proceedings of the European Conference of Computing and Philosophy.

Strawson et al. (2006). "Consciousness and Its Place in Nature: Does Physicalism Entail Panpsychism?" (Imprint Academic).

Tegmark, M. (2000). "Importance of quantum decoherence in brain processes". Phys. Rev. E 61 (4): 4194–4206. doi:10.1103/PhysRevE.61.4194.

Vinge, V. “The coming technological singularity”, Whole Earth Review, New Whole Earth LLC, March 1993.

Vitiello, G. (2001). "My Double Unveiled; Advances in Consciousness". (John Benjamins).

Waal, F. (2000). "Chimpanzee Politics: Power and Sex among Apes". (Johns Hopkins University Press).

Yudkowsky, E. (2007). "Three Major Singularity Schools". http://yudkowsky.net/singularity/schools.

Yudkowsky, E. (2008). “Artificial intelligence as a positive and negative factor in global risk” in Bostrom, Nick and Cirkovic, Milan M. (eds.), Global catastrophic risks, pp. 308–345 (Oxford: Oxford University Press).


* * *

Original Title: Technological Singularities, Intelligence Explosions & The Future of Biological Sentience
Brazilian Portuguese Title: Singularidades tecnológicas, explosões de inteligências e o futuro da senciência biológica
Author: David Pearce (2011)
Technical Review by: Lauren L. N. Baumhardt (2011)
Translation by: Gabriel Garmendia da Trindade (2011) see too 1, 2, 3, 4, 5, 6, 7 & 8

hedweb.com

HOME
Talks 2011
H+ Interview
More Interviews
Transhumanism (pdf)
The Abolitionist Project
Reprogramming Predators
The Reproductive Revolution
The End of Suffering? (H+, 2010)
Top Five Reasons Transhumnism Can Abolish Suffering
The Fate of the Meat World (Harvard H+ Summit, 2010)
What is Empathetic Superintelligence? (Powerpoint, H+ 2011)