Singularidade

Pensando mal
ou mal pensando?

Filosofia
Ícone filosofia.svg
Principais linhas de pensamento
O bom, o mau
e o cérebro peido
Pensando bem
  • Religião
  • Ciência
  • Filosofia da ciência
  • Ética
  • Psicologia

PARA singularidade , como mais comumente usado, é um ponto em que as regras esperadas são interrompidas. O termo vem de matemática , onde um ponto em uma inclinação de outra forma contínua é de valor indefinido ou infinito; tal ponto é conhecido como singularidade.

O prazo se estendeu a outros campos; o uso mais notável é emastrofísica, onde uma singularidade é um ponto (geralmente, mas talvez não exclusivamente, no centro de um buraco negro ) onde a curvatura do espaço-tempo se aproxima do infinito.

Este artigo, no entanto, não é sobre o uso matemático ou físico do termo, mas sim o empréstimo dele por vários futuristas . Eles definem uma singularidade tecnológica como o ponto além do qual nada podemos saber sobre o mundo. Então, é claro, eles escrevem longamente sobre o mundo depois dessa época. Convenientemente, essa premissa não apenas permite, mas justifica qualquer coisa, incluindo grandes inconsistências com princípios conhecidos da ciência.

Conteúdo

Singularidade tecnológica

Isso é design inteligente para o QI 140 pessoas. Essa proposição de que estamos indo para este ponto em que tudo será inimaginavelmente diferente - é fundamentalmente, na minha opinião, impulsionada por umreligiosoimpulso. E todo o agitar frenético do braço não pode obscurecer esse fato para mim, não importa quantos números ele marqueie a favor disso. Ele é muito bom em ter muitas curvas que apontam para a direita.
—Mitch Kapor em Ray Kurzweil
Um gráfico usado por defensores da singularidade

No transumanista e crença singularitária, a 'singularidade tecnológica' refere-se a um ponto hipotético além do qual a tecnologia humana e a civilização não são mais compreensíveis para a mente humana atual. A teoria da singularidade tecnológica afirma que em algum momento os humanos irão inventar uma máquina que através do uso de inteligência artificial (AI) será mais inteligente do que qualquer ser humano jamais poderia ser. Essa máquina, por sua vez, será capaz de inventar novas tecnologias ainda mais inteligentes. Este evento irá desencadear um explosão exponencial de avanços tecnológicos cujo resultado e efeito sobre a humanidade são fortemente debatidos por transumanistas e singularistas.

Alguns proponentes da teoria acreditam que as máquinas eventualmentenão verá uso para humanos na Terrae simplesmente nos limpe (comedores inúteis) out - sua inteligência sendo muito superior à dos humanos, provavelmente não haveria nada que pudéssemos fazer a respeito. Eles também temem que o uso de máquinas extremamente inteligentes para resolver problemas matemáticos complexos possa levar à nossa extinção. A máquina pode teoricamente responder à nossa pergunta, transformando toda a matéria em nossoSistema solarou nossa galáxia em uma calculadora gigante, destruindo assim toda a humanidade.

Os críticos, entretanto, acreditam que os humanos nunca serão capazes de inventar uma máquina que se iguale à inteligência humana, muito menos a exceda. Eles também atacam a metodologia que é usada para 'provar' a teoria, sugerindo que lei de Moore pode estar sujeito à lei dos rendimentos decrescentes, ou que outras métricas usadas pelos proponentes para medirprogressosão totalmente subjetivos e sem sentido. Teóricos como Theodore Modis argumentam que o progresso medido em métricas como a velocidade do clock da CPU está diminuindo, refutando a Lei de Moore. (A partir de 2015, não apenas a Lei de Moore está começando a parar, Dennard scaling também está morto há muito tempo, os retornos em poder de computação bruto dos transistores estão sujeitos a retornos decrescentes à medida que usamos mais e mais deles, há também a Lei de Amdahl e a lei de Wirth a serem levadas em consideração, e também que o poder de computação bruto simplesmente não escala linearmente no fornecimento de utilidade marginal real)



Os adeptos veem uma chance da singularidade tecnológica chegar emterradentro do século 21. Alguns dospensamento positivopode ser simplesmente a expressão de um desejo de evitar morte , já que a singularidade deve trazer a tecnologia para reverter o envelhecimento humano, ou para carregar mentes humanas em computadores . No entanto, pesquisas recentes, apoiadas por organizações singularitárias, incluindo o MIRI e o Instituto Futuro da Humanidade, não apóiam ohipóteseque as previsões de curto prazo da singularidade são motivadas por um desejo de evitar a morte, mas, em vez disso, fornecem algumas evidências de que muitas previsões otimistas sobre o momento de uma singularidade são motivadas pelo desejo de 'ganhar crédito por trabalhar em algo que será relevante , mas sem qualquer possibilidade de que sua previsão pudesse se mostrar falsa em sua carreira atual ”.

Não se preocupe em citar Ray Kurzweil para quem sabe alguma coisa sobre cognição humana ou, de fato,biologia. Ele é um gênio da ciência da computação que tem dificuldade em perceber quando está bem fora de sua área de especialização .

Três grandes escolas de singularidade

Eliezer Yudkowsky identifica três grandes escolas de pensamento quando se trata da singularidade. Embora todos compartilhem um terreno comum no avanço da inteligência e no rápido desenvolvimento da tecnologia, eles diferem em como a singularidade ocorrerá e nas evidências para apoiar a posição.

Mudança acelerada

Segundo essa escola de pensamento, presume-se que a mudança e o desenvolvimento da tecnologia e da inteligência humana (ou assistida por IA) serão acelerados a uma taxa exponencial. Portanto, a mudança de uma década atrás foi muito mais rápida do que a de um século atrás, o que foi mais rápido do que há um milênio. Embora pensar em termos exponenciais possa levar a previsões sobre o futuro e os desenvolvimentos que ocorrerão, isso significa que os eventos passados ​​são uma fonte não confiável de evidências para fazer essas previsões.

Horizonte de eventos

A escola do 'horizonte de eventos' postula que o mundo pós-singularidade seria imprevisível. Aqui, a criação de uma inteligência artificial super-humana mudará o mundo de forma tão dramática que não teria nenhuma semelhança com o mundo atual, ou mesmo o mais selvagem ficção científica . Na verdade, nossa civilização moderna é simplesmente inimaginável para aqueles que vivem, digamos, na Grécia antiga. Essa escola de pensamento vê a singularidade mais como um evento de ponto único, em vez de um processo - na verdade, foi essa tese que gerou o termo 'singularidade'. No entanto, esta visão da singularidade trata a inteligência transumana como algum tipo de Magia .

Explosão de inteligência

Isso postula que a singularidade é impulsionada por um ciclo de feedback entre a tecnologia de aprimoramento da inteligência e a própria inteligência. Como disse Yudkowsky (que endossa essa visão), 'O que os humanos com interfaces cérebro-computador fariam com sua inteligência aumentada? Uma boa aposta é que eles projetariam a próxima geração de interfaces cérebro-computador. ' Quando esse ciclo de feedback de tecnologia e inteligência começa a aumentar rapidamente, a singularidade está sobre nós.

Techno-fé ainda é fé

Uma singularidade é um sinal de que seu modelo não se aplica além de um certo ponto, nem o infinito chegando na vida real.
—Fórum como

Há também uma quarta escola de singularidade: isso é tudo um monte de besteiras! Esta posição não é popular entre bilionários de alta tecnologia.

Pode valer a pena dar uma olhada em um conceito precursor semelhante desenvolvido por umjesuítapadre pelo nome de Pierre Teilhard de Chardin , para paleontólogo quem gostarusso Ortodoxoascético Nikolai Fedorov antes dele, foi inspirado porDarwinismoe acreditava que os humanos podiamdirigir sua própria evoluçãopara trazer a ressurreição e o reino de Deus . Em 1949, Teilhard propôs que, no futuro, todas as máquinas seriam conectadas em uma vastarede globalisso iria fundir as consciências de todos os humanos . Eventualmente, isso desencadearia uma explosão de inteligência exponencialmente incompreensível que ele chamou de 'Ponto Omega' que permitiria à humanidade romper a estrutura material do Tempo e do Espaço e se tornar um com Deus sem ter que morrer, apesar de Deus já seronipresente e dentro de todos.

A Singularidade vai acontecer?

Isso depende muito da sua definição de 'singularidade'.

A singularidade da explosão de inteligência é de longe a mais improvável. De acordo com os cálculos atuais, um supercomputador futuro hipotético pode muito bem não ser capaz de replicar um cérebro humano em tempo real, já que atualmente nem mesmo entendemos como funciona a inteligência ─ embora os proponentes da teoria da singularidade geralmente não sustentem que a IA avançada têm réplicas do cérebro humano, em vez disso, sustentam que desenvolverão sua própria forma de inteligência principalmente de forma independente. Um problema mais assustador é que não há evidências de que a inteligência pode ser auto-iterativa desta maneira - na verdade, não é improvável que melhorias na inteligência sejam realmente mais difíceis quanto mais inteligente você se torna, o que significa que cada melhoria na inteligência é cada vez mais difícil de executar. Na verdade, quão mais inteligente do que um ser humano algo pode ser é uma questão em aberto. Os requisitos de energia são outro problema; humanos podem fugir de Doritos e Mountain Dew Dr. Pepper, enquanto os supercomputadores requerem grandes quantidades de energia para funcionar. Os proponentes da singularidade geralmente abordam a questão da energia postulando que quanto mais inteligente for a IA, mais energia será extraída (com estruturas hipotéticas, como aEsfera de Dysonmuitas vezes sendo proposto), mas isso mais uma vez leva ao problema de não haver evidência de auto-iteratividade da inteligência.

Outra questão importante surge da natureza do desenvolvimento intelectual; se uma inteligência artificial precisa ser criada e treinada, pode levar muito tempo entre as gerações de inteligências artificiais para obter mais melhorias. Animais mais inteligentes parecem geralmente exigir mais tempo para amadurecer, o que pode colocar outra limitação em qualquer 'explosão'. Singularitarians geralmente responde a este problema apontando para a tendência de mudança acelerada, mas é questionável se essa tendência ainda existe: por exemplo, a taxa depatentesper capita, na verdade, atingiu o pico no século 20, com um pequeno declínio desde então, apesar do fato de que os seres humanos ficaram mais inteligentes e obtiveram ferramentas superiores. Conforme observado acima, a Lei de Moore está chegando ao fim e, fora do reino dos computadores, a taxa de aumento em outras coisas não tem sido exponencial - aviões e carros continuam a melhorar, mas não melhoram na taxa ridícula dos computadores. É provável que, quando os computadores atingirem os limites físicos de densidade de transistores, sua taxa de melhoria cairá drasticamente, e ainda hoje, os computadores 'bons o suficiente' continuam a operar por muitos anos, algo que era inédito na década de 1990, onde os computadores antigos eram rápida e obviamente obsoletos pelos novos. Alguém como Kurzweil pode dizer que tudo isso é indicativo de uma mudança de paradigma em andamento, por meio da qual a taxa de desenvolvimento de tecnologia antiga (como carros e aviões) para enquanto a taxa de tecnologia mais recente e mais influente (como IA ou computação quântica) começa aumentar, mas afirmações como essa podem ser vistas como um exemplo clássico de No True Scotsman falácia. Afirmações adicionais que tentam refutar a interpretação No-True-Scotsman, como a de que a tendência de crescimento exponencial existe há milhões de anos e que, portanto, é lógico concluir que as taxas de crescimento mais lentas de alguma tecnologia existente são mais prováveis ​​de indicar paradigma mudanças do que uma mudança global na tendência, não foram verificadas de uma maneira sistemática e imparcial.

François Chollet aponta que, apesar das quantias cada vez maiores de dinheiro e tempo gasto em pesquisa científica, o progresso científico ainda é aproximadamente linear. Apesar do número exponencialmente crescente de programadores de software escrevendo códigos para computadores exponencialmente mais poderosos, o software ainda é uma droga. (Veja também Lei de Wirth .) Os problemas fáceis já foram resolvidos, e o progresso contínuo requer a solução de problemas cada vez mais difíceis, que exigem equipes cada vez maiores. 'O progresso exponencial encontra o atrito exponencial.'

De qualquer forma, no mundo real, o crescimento exponencial nunca continua para sempre, uma vez que sempre encontrará algum tipo de esgotamento de recursos que o retarda, transformando-o em crescimento sigmoidal (ou 'logístico') ; afirma que este esgotamento de recursos ocorrerá apenas depois que a IA atingir a inteligência sobre-humana já tiver sido tratada. Além disso, mesmo quando o crescimento exponencial continua para sempre, ele pode, por definição, nunca atingir o infinito.

Problema com explosão de inteligência

A explosão da inteligência é geralmente considerada um programa inteligente que modifica seu próprio código para se tornar mais inteligente e acelerar ainda mais o processo de modificação. Algumas coisas que precisam ser mencionadas são,
(a) Para um programa de certo tamanho n bits, só pode haver 2 ^ n cadeias de bits possíveis. Portanto, o autoaperfeiçoamento recursivo não pode continuar indefinidamente.
(b) Nenhum tipo de software de autoaperfeiçoamento recursivo (RSI) é conhecido, e a suposição de que o software RSI é possível não foi comprovada.
(c) Necessita de grande capacidade de computação: Mesmo que a RSI seja possível, ela precisaria de quantidades extremas de capacidade de computação. Em cada estágio, o programa iria escrever vários programas, executá-los para verificar se eles são mais inteligentes do que ele. Portanto, ou a IA inicial é um programador altamente competente ou um número extremamente grande de programas seria verificado. Executar cada programa levaria algum tempo e / ou energia, tornando o processo extremamente longo e / ou intensivo em energia. Além disso, a IA teria que aprender extensivamente para se tornar competente como um agente no mundo mais amplo. Isso exigiria poder de computação para processar as informações.
(d) A suposição de que a inteligência é unidimensional. É provável que haja uma troca entre recursos em campos diferentes. Assim, o programa 1 teria que decidir entre vários candidatos para o programa 1.1, alguns dos quais são mais inteligentes do que ele. Como isso vai acontecer?
(e) O pesquisador Yamploskiy levantou a preocupação de que erros poderiam se acumular durante o autoaperfeiçoamento, fazendo com que o programa parasse de funcionar em algum estágio.

Singularidade extraterrestre

As singularidades tecnológicas extraterrestres podem se tornar evidentes a partir de atos de engenharia estelar / cósmica. Uma dessas possibilidades, por exemplo, seria a construção de esferas de Dyson que resultariam na alteração do espectro eletromagnético de uma estrela de uma forma detectável da Terra. AmbosDEFINIRe o Fermilab incorporaram essa possibilidade em suas buscas por vida alienígena.

Uma visão diferente do conceito de singularidade é explorada na ficção científica livroOvo de dragãopor Robert Lull Forward, em que um civilização alienígena na superfície de umEstrêla de Neutróns, sendo observada por exploradores espaciais humanos, vai da Idade da Pedra à singularidade tecnológica no espaço de cerca de uma hora no tempo humano, deixando para trás uma grande quantidade dedados criptografadospara os exploradores humanos, espera-se que levem mais de um milhão de anos (para a humanidade) para desenvolver a tecnologia para descriptografar.

Nenhuma evidência definitiva de civilizações extraterrestres foi encontrada em 2019.

Facebook   twitter