As leis computacionais talvez conseguissem descrever a trajetória do universo de forma mais precisa do que as equações dinâmicas da física, desde que incorporássemos um elemento quântico inovador.
Em junho, o falecimento de Edward Fredkin, cientista da computação e físico americano, passou despercebido até que o New York Times publicou um obituário em retrospecto. Embora nunca tenha atingido o mesmo reconhecimento que alguns de seus contemporâneos, Fredkin exerceu uma influência desproporcional nas duas disciplinas que abraçou.
Muitos resistem ainda à sua ideia fundamental: a de que as leis da física, incluindo as que regem o universo, podem ser essencialmente resultantes de um algoritmo computacional. Entretanto, a noção de “física digital” proposta pelo cientista da computação deixou de ser rejeitada para quase alcançar o status de ideia convencional.
“Naquela época, a ideia de que a ciência da computação poderia contribuir para a física era vista como absurda”, relembra Norman Margolus, colaborador de longa data de Fredkin e seu único aluno de doutorado em física. “O cenário mudou desde então, agora essa intersecção é altamente respeitada.”
REVERSO COMPUTACIONAL
No final dos anos 1960, quando a inteligência artificial ainda era predominantemente teórica, Fredkin já antecipava os desafios políticos que máquinas com capacidade de aprendizado e decisão autônoma representariam, inclusive para a segurança nacional. Ele advogava pela colaboração internacional na pesquisa de IA, reconhecendo que um consenso inicial sobre o uso da tecnologia preveniria futuros problemas. No entanto, suas tentativas de promover uma reunião internacional de principais pensadores da área não foram totalmente concretizadas, um fracasso que ressoa até hoje.
Em 1974, Fredkin deixou o MIT e passou um ano como ilustre acadêmico na Caltech, onde desenvolveu amizades com os físicos Richard Feynman e Stephen Hawking. Em seguida, assumiu uma cátedra na Universidade Carnegie Mellon, em Pittsburgh, Pensilvânia, e mais tarde uma segunda posição na Universidade de Boston. Foi nesse ponto que ele começou a se dedicar à computação reversível.
Naquele período, a ideia de computação reversível era amplamente tida como inviável. Um típico computador digital é construído usando portas lógicas como AND, OR, XOR, entre outras, que normalmente convertem duas entradas em uma saída. As informações de entrada são apagadas durante esse processo, gerando calor, e essa operação não pode ser desfeita.
Edward Fredkin viu poucos limites para o que a computação poderia explicar. Crédito: Faculdade de Ciência da Computação/Universidade Carnegie Mellon. |
Junto a Margolus e a um jovem engenheiro elétrico italiano, Tommaso Toffoli, Fredkin demonstrou que certas portas de três entradas e três saídas – posteriormente batizadas de portas Fredkin e Toffoli – poderiam ser organizadas de forma que todas as etapas intermediárias de qualquer cálculo fossem executadas de maneira preservativa, permitindo a reversão do processo após sua conclusão. Como detalharam em um influente artigo de 1982, um computador construído com tais portas poderia, pelo menos teoricamente, não gerar calor residual e, portanto, não consumir energia.
Inicialmente, essa descoberta parecia ser uma curiosidade. Fredkin acreditava que o conceito poderia contribuir para o desenvolvimento de computadores mais eficientes, minimizando o desperdício de calor. Contudo, não havia um meio prático de implementar completamente essa ideia usando tecnologia computacional clássica. No entanto, em 1981, a narrativa tomou uma nova direção quando Fredkin e Toffoli organizaram o Simpósio de Física Computacional no MIT, evento no qual estiveram presentes figuras ilustres como Feynman. Em uma contribuição que se tornou célebre, Feynman sugeriu que, em vez de tentar simular fenômenos quânticos através de computadores digitais convencionais, certos sistemas físicos que exibem comportamento quântico poderiam ser mais eficazes como ferramentas.
Esse discurso é amplamente considerado como o marco inicial da era dos computadores quânticos, os quais exploram todo o potencial da mecânica quântica para resolver certos problemas – incluindo a simulação quântica mencionada por Feynman – de maneira significativamente mais rápida do que os computadores clássicos. Quatro décadas depois, computadores quânticos em escala reduzida estão em processo de desenvolvimento. Embora os componentes eletrônicos, lasers e sistemas de resfriamento necessários para sua operação demandem grande consumo energético, as próprias operações lógicas quânticas são praticamente isentas de perdas.
FÍSICA DIGITAL
“Computação reversível foi um requisito crucial para que pudéssemos conceber computadores quânticos”, destaca Seth Lloyd, engenheiro mecânico do MIT que em 1993 elaborou o primeiro conceito viável de computador quântico. Enquanto Charles Bennett, físico da IBM, também apresentou modelos de computação reversível, acrescenta Lloyd, foram as versões com dissipação zero, descritas por Fredkin, Toffoli e Margolus, que serviram como base para a construção da computação quântica.
Em seu artigo de 1982, Fredkin e Toffoli começaram a direcionar seus estudos sobre computação reversível de maneira notavelmente diferente. Eles utilizaram uma analogia aparentemente simples: uma mesa de bilhar. Demonstraram como operações matemáticas poderiam ser representadas por interações entre bolas de bilhar totalmente reversíveis, considerando uma mesa sem atrito e bolas interagindo sem perdas.
A concepção tangível do conceito reversível originou-se da ideia de Toffoli de que os conceitos da informática poderiam ser uma forma mais eficaz de encapsular os princípios da física do que as equações diferenciais tradicionalmente utilizadas para descrever o movimento e a mudança.
No entanto, Fredkin foi ainda mais longe ao concluir que o universo como um todo poderia ser interpretado como uma espécie de máquina de processamento de dados. Em sua visão, era um “autômato celular”: um conjunto de unidades computacionais, ou células, que podem alterar seu estado com base em um conjunto predefinido de regras determinadas pelos estados das células vizinhas. Com o passar do tempo, essas regras simples podem dar origem a todas as complexidades do cosmos, inclusive à vida.
Outros também exploraram essas ideias. Konrad Zuse, um engenheiro civil alemão que desenvolveu um dos primeiros computadores programáveis antes da Segunda Guerra Mundial, propôs em seu livro “Rechnender Raum” (ou “Espaço de Cálculo”) de 1969 que o universo poderia ser concebido como um autômato celular digital clássico. Fredkin e seus colegas expandiram essa concepção com dedicação, dedicando anos à busca de exemplos que demonstrassem como regras computacionais simples poderiam dar origem a todos os fenômenos relacionados a partículas e forças subatômicas.
No entanto, nem todos foram convencidos. Margolus relembra que o renomado físico Philip Morrison, que também fazia parte do corpo docente do MIT na época, disse aos alunos de Fredkin que se ele fosse um comerciante de queijo, acreditaria que o mundo era um grande queijo. Quando o cientista da computação britânico Stephen Wolfram apresentou ideias semelhantes em seu livro de 2002, “A New Kind of Science”, Fredkin respondeu: “Wolfram é a primeira pessoa importante a adotar essa crença. Tenho estado muito sozinho.”
No entanto, na realidade, Wolfram não foi o único a explorar essas ideias. Embora Fredkin tenha inicialmente empregado os termos “física digital” e, posteriormente, “filosofia digital”, variações modernas desse conceito utilizaram termos como “pancomputacionalismo” e “digitalismo”. Essas abordagens foram endossadas por pesquisadores como o ganhador do Prêmio Nobel de Física, o holandês Gerard ‘t Hooft, e o físico americano John Wheeler, cuja famosa expressão “it from bit” resume de maneira sucinta essa hipótese.
NO DOMÍNIO QUÂNTICO
Alguns, como Margolus, elaboraram a versão clássica da teoria, enquanto outros argumentaram que um modelo de computação clássica não seria capaz de abarcar as complexidades do universo que observamos. De acordo com Lloyd, os “desafios significativos da teoria original do universo digital de Fredkin se concentram na incompatibilidade de um universo digital clássico com a compreensão dos fenômenos da mecânica quântica”.
Porém, se ajustarmos as regras computacionais clássicas da física digital de Fredkin para incorporar princípios quânticos, muitos desses problemas podem ser superados. As características inerentes de um universo quântico, como o entrelaçamento entre dois estados quânticos separados no espaço, podem ser abordadas de maneira que uma teoria fundamentada em conceitos clássicos não conseguiria.
Lloyd defendeu essa perspectiva ao longo de uma série de artigos a partir da década de 1990, assim como em seu livro de 2006 intitulado “Programming the Universe”. Esse percurso culminou em uma explanação abrangente sobre como as regras da computação quântica poderiam oferecer explicações para as leis estabelecidas da física, incluindo a teoria das partículas elementares, o Modelo Padrão da física de partículas e talvez até mesmo a busca máxima da física fundamental: uma teoria quântica da gravidade.
DIVERGÊNCIA EM RELAÇÃO À HIPÓTESE DE SIMULAÇÃO
Essas proposições contrastam significativamente com a concepção mais recente, advogada pelo filósofo sueco Nick Bostrom na Universidade de Oxford, entre outros, de que estamos vivendo em uma simulação computacional.
Enquanto a teoria do universo digital postula que as condições iniciais básicas e as regras do universo computacional emergiram de forma natural, de maneira semelhante ao surgimento das partículas e forças no contexto da física tradicional durante o Big Bang e suas subsequentes ramificações, a hipótese da simulação argumenta que o universo foi intencionalmente criado por programadores alienígenas altamente avançados e inteligentes. Talvez tenha sido criado como um grandioso experimento ou até mesmo como um tipo de jogo intrincado, conforme ponderado por Lloyd.
A noção fundamental de um universo digital pode ser sujeita a testes. Para que o cosmos tenha sido gerado por um sistema de bits de dados na minúscula escala de Planck – uma magnitude na qual se espera que as teorias atuais da física encontrem limitações –, tanto o espaço quanto o tempo precisariam ser formados por componentes discretos e quantizados. Os efeitos desse espaço-tempo granulado podem se manifestar em pequenas discrepâncias, por exemplo, no tempo que a luz de diferentes frequências leva para se propagar através de bilhões de anos-luz.
Como resultado, para abranger completamente o conceito, provavelmente é necessário uma teoria quântica da gravidade que estabeleça a relação entre os efeitos da teoria geral da relatividade de Einstein em uma escala macroscópica e os efeitos quânticos em uma escala microscópica. Até o momento, essa relação tem escapado aos esforços dos teóricos. É exatamente nesse ponto que a ideia de um universo digital pode oferecer insights significativos.
Portanto, os caminhos preferenciais para as teorias de gravidade quântica estão começando a se orientar para uma abordagem mais computacional. Um exemplo é o princípio holográfico introduzido por ‘t Hooft, que propõe que nosso mundo seja uma representação de uma realidade de dimensão inferior.
“É promissor que essas visões provenientes do universo quântico digital possam lançar luz sobre alguns desses enigmas”, conclui Lloyd.
Por: David L. Chandler, Nature, 2023.
Fonte: mysteryplanet