Serie De Ficção Cientifica Brasileira: A nossa vida é repleta de magia quando entendemos, e unimos a nossa sincronicidade com o todo. “A Harpa Sagrada” inicia-se numa serie de revelações onde o homem tem sua essência cravada no sagrado, e o olhar no cosmos aspirando sua perfeição.

terça-feira, 27 de novembro de 2012

Algumas tecnologias altamente avançadas podem representar uma séria ameaça para a nossa espécie - os cientistas dizem


Pode haver certas tecnologias que podem constituir "extinção em nível de" riscos para a nossa espécie, da biotecnologia à inteligência artificial, de acordo com uma equipe de cientistas que propõem um novo centro em Cambridge dar conta do desenvolvimento destas tecnologias.
Muitos cientistas estão preocupados que a evolução da tecnologia humana pode em breve apresentar novos riscos para a nossa espécie como um todo. Esses perigos têm sido sugeridos do progresso na IA, de desenvolvimento da biotecnologia e da vida artificial, da nanotecnologia, e de possíveis efeitos extremos da mudança climática antropogênica.
A gravidade desses riscos é difícil de avaliar, mas que em si parece um motivo de preocupação, dado o quanto está em jogo. Veja este artigo recente on-line por Huw Preços e Tallinn Jaan !


Em 1965, 'Jack' John Irving Boa sentou-se e escreveu um artigo para a New Scientist chamado Especulações sobre a máquina ultra-inteligente primeiro. Bom, um matemático de Cambridge treinado, criptógrafo Bletchley Park, cientista da computação pioneiro e amigo de Alan Turing, escreveu que no futuro próximo uma máquina ultra-inteligente seria construído.

Esta máquina, continuou ele, seria a "última invenção" que a humanidade nunca vai fazer, levando a uma "explosão de inteligência" - um aumento exponencial na auto-geração a inteligência da máquina. For Good, que passou a aconselhar Stanley Kubrick em 2001: Uma Odisséia no Espaço, a "sobrevivência do homem" dependia da construção desta máquina ultra-inteligente.


Avanço rápido de quase 50 anos eo mundo parece muito diferente. Computadores dominar a vida moderna através de vastas áreas do planeta, sustentando funções-chave da governança global e economia, aumentando a precisão nos cuidados de saúde, monitoramento de identidade e facilitando a maioria das formas de comunicação - desde a mudança de paradigma para o mais íntimo pessoalmente.
A tecnologia avança para a maior parte desmarcada e inabalável.
Enquanto poucos negariam a humanidade recebeu benefícios como resultado de seu gênio da engenharia - a partir de uma vida mais longa para redes mundiais - alguns estão começando a questão de saber se a aceleração de tecnologias humanas resultará na sobrevivência do homem, como Bom sustentou, ou se em verdade, esta é a mesma coisa que vai acabar nós.
Agora, um filósofo, um cientista e um engenheiro de software se uniram para propor um novo centro na Universidade de Cambridge, o Centro para o Estudo do Risco Existencial (CSER), para resolver esses casos - de evolução bio e nanotecnologia para a mudança climática extrema e até mesmo inteligência artificial - em que a tecnologia pode representar "extinção em nível de" riscos para nossa espécie.
"Em algum momento, neste século ou no próximo, bem podemos estar diante de uma das grandes mudanças na história humana - a história, talvez até mesmo cósmica - quando a inteligência escapa às restrições da biologia", diz Huw Price, a Bertrand Russell professor de Filosofia e um de três Cser de fundadores, falando sobre o possível impacto da boa máquina ultra-inteligente, ou inteligência geral artificial (AGI), como o chamamos hoje.
"A natureza não antecipar-nos, e nós, por nossa vez, não devem tomar AGI para concedido. Precisamos levar a sério a possibilidade de que possa haver um momento "caixa de Pandora" com AGI que, se perder, pode ser desastroso.
Eu não quero dizer que podemos prever isso com certeza, ninguém está atualmente em uma posição de fazer isso, mas esse é o ponto! Com tanto em jogo, precisamos fazer um trabalho melhor de compreender os riscos de tecnologias potencialmente catastróficas ".


Preço interesse em AGI risco decorre de um encontro casual com Jaan Tallinn, um ex-engenheiro de software que foi um dos fundadores do Skype, que - como Google e Facebook - tornou-se a pedra angular digital. Nos últimos anos, Tallinn se tornou um expoente para a discussão séria sobre os aspectos éticos e de segurança da AI e AGI, e preço ficou intrigado com seu ponto de vista:

"Ele (Tallinn) disse que em seus momentos de pessimismo ele sentiu que era mais probabilidade de morrer de um acidente AI do que de câncer ou doença cardíaca. Fiquei intrigado que alguém com os pés tão firmemente no chão, a indústria deve vê-lo como uma questão tão séria, e impressionado com seu compromisso de fazer algo sobre isso. "
Nós Homo sapiens têm, para Tallinn, se otimizado - no sentido de que agora controlar o futuro, tendo agarrou as rédeas de 4 bilhões de anos de evolução natural. Nosso progresso tecnológico tem por e evolução substituído grande como a dominante, futura força-shaping.


Nós mover mais rápido, viver mais tempo, e pode destruir a uma taxa feroz. E usamos a nossa tecnologia para fazê-lo. AI voltado para tarefas específicas continua seu rápido desenvolvimento - desde a negociação financeira para enfrentar reconhecimento - e o poder dos chips dos computadores dobra a cada dois anos, de acordo com a lei de Moore, tal como estabelecido pelo fundador da Intel, Gordon Moore, no mesmo ano que o Bem previu a ultra -inteligência da máquina.

Sabemos que a "matéria idiota" pode pensar, dizer Preços e Tallinn - biologia já resolveu esse problema, em um recipiente do tamanho de nossos crânios. Isso é uma tampa fixa ao nível de complexidade exigido, e parece irresponsável, argumentam eles, supor que a curva ascendente de complexidade computação não vai chegar e até superar essa barra no futuro. O ponto crítico pode vir se os computadores a capacidade humana para escrever programas de computador e desenvolver suas próprias tecnologias. Isto, "explosão de inteligência" Good, pode ser o ponto que são deixados para trás - permanentemente - para um futuro AGI definidora.
"Pense como seria a competir por recursos com as espécies dominantes", diz Price. "Tome gorilas, por exemplo - o motivo de estar extinta não é porque os seres humanos são ativamente hostil para com eles, mas porque nós controlar os ambientes de uma forma que nos convém, mas são prejudiciais para a sua sobrevivência."
Preço e estresse Tallinn as incertezas nessas projeções, mas apontam que isso simplesmente sublinha a necessidade de saber mais sobre AGI e outros tipos de risco tecnológico.
Em Cambridge, Preço introduziu Tallinn a Lord Martin Rees, ex-Mestre do Trinity College e presidente da Royal Society, cujo trabalho em risco catastrófico inclui seus livros Nosso último século (2003) e From Here to Infinity: horizontes científicos (2011). Os três formaram uma aliança, com o objetivo de estabelecer CSER.
Com luminares da ciência, a política, a lei de risco, e computação de toda a Universidade e para além de se inscrever para se tornarem consultores, o projeto é que, mesmo em seus primeiros dias, ganhando impulso. "A filosofia básica é que devemos estar levando a sério o fato de que estamos chegando ao ponto em que nossas tecnologias têm o potencial de ameaçar a nossa própria existência - de uma forma que eles simplesmente não têm até agora, na história humana", diz Price. "Deveríamos estar investindo um pouco de nossos recursos intelectuais na mudança alguma probabilidade de maus resultados para os bons."
Preço reconhece que algumas dessas idéias pode parecer inverossímil, a coisa de ficção científica, mas insiste que isso é parte do ponto. "Na medida - atualmente mal entendido - que há riscos significativos, é um perigo adicional se mantenham, por estas razões sociológicas fora do âmbito da investigação" séria "."
"O melhor lugar do que Cambridge, uma das mais antigas do mundo, grandes universidades científicas, para dar a essas questões a respeitabilidade acadêmica destaque e que merecem?", Acrescenta. "Esperamos que CSER será um lugar onde as mentes de classe mundial de uma variedade de disciplinas podem colaborar em explorar os riscos tecnológicos, tanto o futuro próximo e distante.
"Cambridge recentemente comemorou seu aniversário de 800 - o nosso objectivo é reduzir o risco de que não poderia estar por perto para comemorar o seu milênio".
MessageToEagle.com.

Nenhum comentário:

Postar um comentário