Serie De Ficção Cientifica Brasileira: A nossa vida é repleta de magia quando entendemos, e unimos a nossa sincronicidade com o todo. “A Harpa Sagrada” inicia-se numa serie de revelações onde o homem tem sua essência cravada no sagrado, e o olhar no cosmos aspirando sua perfeição.

quinta-feira, 19 de setembro de 2013

Momento 'Caixa de Pandora' - Algumas tecnologias altamente avançadas podem representar uma séria ameaça à nossa espécie - Cientistas dizem



 
Pode haver certas tecnologias que possam representar riscos de "nível" extinção da nossa espécie, da biotecnologia à inteligência artificial, de acordo com uma equipe de cientistas que propõem um novo centro em Cambridge para enfrentar os desenvolvimentos destas tecnologias.
Muitos cientistas estão preocupados que a evolução da tecnologia humana pode em breve colocar novos riscos para a nossa espécie como um todo. Tais perigos têm sido sugeridas de progresso na AI, da evolução da biotecnologia e da vida artificial, a partir de nanotecnologia, e de possíveis efeitos extremos da mudança climática antropogênica.
A gravidade desses riscos é difícil de avaliar, mas que em si parece ser um motivo de preocupação, dado o quanto está em jogo. Veja este artigo em linha recente de Huw Preço e Jaan Tallinn !
Cientistas da Universidade de Cambridge agora se reúnem para identificar uma lista apocalíptico de "riscos existenciais" que ameaçam o planeta.
Mudança climática desenfreada, o bioterrorismo e computadores inteligentes são alguns dos perigos a ser investigados pelo grupo, que inclui Astrônomo Real Lord Rees e do físico Stephen Hawking Prof.
Em um discurso no Festival Britânico de Ciência, Lord Rees disse: "Em décadas futuras, os eventos de baixa probabilidade, mas conseqüências catastróficas podem pairar no topo da agenda política É por isso que alguns de nós em Cambridge - os dois cientistas naturais e sociais - planejar, com. colegas em Oxford e em outros lugares, para inaugurar um programa de pesquisa para compilar um registo mais completa destes riscos existenciais e avaliar como aumentar a resistência contra os mais credíveis ".
Falando na Universidade de Newcastle, Lord Rees descreveu algumas das questões que mais preocupam a ele e seus colegas.
Eles incluíram fora de controle de mudanças climáticas, tecnologias fugitivos em áreas como inteligência artificial e biologia sintética, e cibernética ou o bioterrorismo.
"Nós se preocupe muito com menores riscos da vida cotidiana: acidentes aéreos improváveis, agentes cancerígenos nos alimentos, baixas doses de radiação, e assim por diante", disse Lord Rees.
"Mas o grande público está em negação sobre dois tipos de ameaças: aqueles que nós estamos fazendo em conjunto para a biosfera, e aqueles que decorrem da maior vulnerabilidade do nosso mundo interligado ao erro ou terror induzido por indivíduos ou pequenos grupos.
"Para sobreviver neste século, vamos precisar dos esforços idealistas e eficaz de cientistas naturais, ambientalistas, cientistas sociais e humanistas.
"Eles devem ser guiados pelas idéias que a ciência do século 21 vai oferecer, mas inspirada nos valores que a própria ciência não pode fornecer."



Em 1965, Irving John 'Jack' Good sentou-se e escreveu um artigo para o New Scientist chamado Especulações sobre a primeira máquina ultra-inteligente. Bom, um matemático de Cambridge treinado, Bletchley Park criptógrafo, cientista da computação pioneiro e amigo de Alan Turing, escreveu que no futuro próximo, uma máquina ultra-inteligente seria construído.

Esta máquina, continuou ele, seria a "última invenção" que a humanidade nunca vai fazer, levando a uma "explosão de inteligência" - um aumento exponencial na inteligência da máquina de auto-geração. For Good, que passou a aconselhar Stanley Kubrick em 2001: uma Odisséia no Espaço, a "sobrevivência do homem" dependia da construção desta máquina ultra-inteligente.


Fast forward quase 50 anos eo mundo parece muito diferente. Computadores dominar a vida moderna através de vastas áreas do planeta, sustentando as funções essenciais do governo e da economia global, aumentando a precisão na área da saúde, o monitoramento de identidade e facilitando a maioria das formas de comunicação - a partir da mudança de paradigma para o mais íntimo pessoalmente.
A tecnologia avança para a maior parte desmarcada e inabalável.
Enquanto poucos negariam a benefícios a humanidade recebeu como resultado de seu gênio da engenharia - a partir de uma vida mais longa para redes mundiais - alguns estão começando a questão de saber se a aceleração de tecnologias humanas resultará na sobrevivência do homem, tão bom sustentou, ou se em verdade, esta é a mesma coisa que nos fim.
Agora, um filósofo, um cientista e um engenheiro de software se uniram para propor um novo centro em Cambridge, o Centro para o Estudo do Risco Existencial (CSER), para tratar estes casos - da evolução da bio e da nanotecnologia para a mudança climática extrema e até mesmo inteligência artificial - em que a tecnologia pode representar riscos de "nível" extinção da nossa espécie.
"Em algum momento, neste século ou no próximo, poderemos estar diante de uma das maiores mudanças na história da humanidade - a história, talvez até mesmo cósmica - quando a inteligência escapa às limitações da biologia", diz Huw Price, a Bertrand Russell Professor de Filosofia e uma dos três fundadores da RSAE, falando sobre o possível impacto da máquina ultra-inteligente de Bom, ou inteligência artificial geral (AGI) como chamamos hoje.
"A natureza não nos antecipar, e nós, por nossa vez, não devem tomar AGI para concedido. Precisamos levar a sério a possibilidade de que possa haver um momento 'caixa de Pandora' com AGI que, se não atendidas, podem ser desastrosas.
Eu não quero dizer que podemos prever isso com certeza, ninguém está atualmente em uma posição de fazer isso, mas esse é o ponto! Com tanta coisa em jogo, precisamos fazer um trabalho melhor de compreender os riscos de tecnologias potencialmente catastróficas. "



O interesse de Preço em risco AGI decorre de um encontro casual com Jaan Tallinn, um ex-engenheiro de software, que foi um dos fundadores do Skype, que - como Google e Facebook - tornou-se a pedra angular digital. Nos últimos anos, Tallinn se tornou um evangelista para a discussão séria sobre os aspectos éticos e de segurança do AI e AGI, e preço ficou intrigado com seu ponto de vista:

"Ele (Tallinn), disse que em seus momentos pessimistas ele sentiu que era mais probabilidades de morrer de um acidente AI do que de câncer ou doença cardíaca. Fiquei intrigado que alguém com os pés tão bem assentes no chão na indústria deve vê-lo como uma questão tão séria, e impressionado com o seu compromisso de fazer algo sobre isso. "
Nós Homo sapiens têm, para Tallinn, se otimizado - no sentido de que agora controlar o futuro, tendo agarrou as rédeas dos 4 bilhões de anos de evolução natural. Nosso progresso tecnológico tem em grande evolução substituído como, força futuro moldar dominante.



Nós mover mais rápido, viver mais tempo, e pode destruir em um ritmo feroz. E usamos a nossa tecnologia para fazê-lo. AI voltado para tarefas específicas continua seu rápido desenvolvimento - desde a negociação financeira para enfrentar reconhecimento - eo poder de chips de computação dobra a cada dois anos, de acordo com a lei de Moore, conforme estabelecido pelo fundador da Intel Gordon Moore, no mesmo ano em que boa previu o ultra máquina de inteligência.

Sabemos que a "matéria mudo" pode pensar, dizer Preço e Tallinn - biologia já resolveu esse problema, em um recipiente do tamanho de nossos crânios. Essa é uma tampa fixa ao nível de complexidade exigido, e parece irresponsável, argumentam eles, assumir que a curva ascendente de complexidade computacional não vai chegar e até superar essa barra no futuro. O ponto crítico pode vir, se os computadores a capacidade humana para escrever programas de computador e desenvolver suas próprias tecnologias. Esta "explosão de inteligência" da Bom, pode ser o ponto de que são deixados para trás - permanentemente - para a AGI futuro definidora.
"Pense como seria a competir por recursos com as espécies dominantes", diz Price. "Tome gorilas, por exemplo - a razão pela qual eles estão indo extinto não é porque os seres humanos são ativamente hostil para com eles, mas porque nós controlar os ambientes de forma que se adequam a nós, mas são prejudiciais para a sua sobrevivência."
Preço e estresse Tallinn as incertezas nessas projeções, mas apontam que isso simplesmente sublinha a necessidade de saber mais sobre a AGI e outros tipos de risco tecnológico.
Em Cambridge, Preço introduzido para Tallinn Lord Martin Rees, ex-Mestre do Trinity College e presidente da Royal Society, cujo trabalho em risco catastrófico própria inclui seus livros Our Final Century (2003) e From Here to Infinito: Horizons Científica (2011). Os três formaram uma aliança, visando estabelecer CSER.
Com luminares da ciência, a política, a lei, de risco e de computação de toda a Universidade e para além de se inscrever para se tornar consultores, o projeto é que, mesmo em seus primeiros dias, ganhando impulso. "A filosofia básica é que devemos tomar a sério o fato de que estamos chegando ao ponto em que nossas tecnologias têm o potencial de ameaçar nossa própria existência - de uma forma que eles simplesmente não têm até o momento, na história da humanidade", diz Price. "Deveríamos estar investindo um pouco dos nossos recursos intelectuais na mudança alguma probabilidade de maus resultados para os bons."
Preço reconhece que algumas dessas idéias pode parecer exagero, coisa de ficção científica, mas insiste que isso é parte do ponto. "Na medida em que - atualmente pouco compreendida - que existem riscos significativos, é um perigo adicional se mantenham, por estas razões sociológicas fora do âmbito da investigação" séria "."

"O melhor lugar do que Cambridge, uma das mais antigas de grandes universidades científicas do mundo, para dar a estas questões, o destaque e respeitabilidade acadêmica que eles merecem?", Acrescenta. "Esperamos que CSER será um lugar onde as mentes de classe mundial a partir de uma variedade de disciplinas podem colaborar na exploração de riscos tecnológicos, tanto no futuro próximo e distante.
"Cambridge recentemente comemorou seu 800 º aniversário - o nosso objectivo é reduzir o risco que pode não estar por perto para celebrar seu milênio".



MessageToEagle.com.

Nenhum comentário:

Postar um comentário