Máquinas já tem força sobre-humana, velocidade e resistência - e um dia eles vão ter inteligência sobre-humana. As únicas razões isso não pode ocorrer é se desenvolver alguma outra tecnologia perigosa primeiro que nos destrói, ou não ser vítima de algum risco existencial. Mas, supondo que o progresso científico e tecnológico continua, a inteligência da máquina de nível humano é muito provável a ser desenvolvido. E logo em seguida, a superinteligência.
Prever quanto tempo vai demorar para desenvolver tais máquinas inteligentes é difícil. Ao contrário do que alguns críticos do meu livro parecem acreditar, eu não tenho qualquer opinião forte sobre esse assunto. (É como se os dois únicos possíveis visualizações alguém poderia segurar sobre o futuro da inteligência artificial são "máquinas são estúpidos e nunca vai viver até o hype!" E "máquinas são muito mais avançada do que você imaginou e verdadeiro AI está ao virar da esquina! ").
Um levantamento dos principais pesquisadores em AI sugere que há uma probabilidade de 50% que a inteligência da máquina de nível humano terá sido alcançado em 2050 (aqui definido como "aquele que pode realizar a maioria das profissões humanos pelo menos tão bem quanto um humano típico") . Isso não parece totalmente louco. Mas deve-se colocar um monte de incerteza em ambos os lados deste: isso poderia acontecer mais cedo ou muito tarde.
Exatamente como vamos chegar lá também é ainda envolto em mistério. Há vários caminhos de desenvolvimento que deve chegar lá um dia, mas não sei qual deles vai chegar lá primeiro.
Nós temos um exemplo real de sistema geralmente inteligente - o cérebro humano - e uma idéia óbvia é continuar tentando trabalhar para fora como este sistema faz o truque. A plena compreensão do cérebro é muito longe, mas talvez seja possível para recolher o suficiente dos princípios computacionais básicas que o cérebro usa para permitir aos programadores que adaptá-los para uso em computadores sem preocupação excessiva sobre a obtenção de todos os detalhes biológicos desarrumado direita.
Nós já sabemos algumas coisas sobre o funcionamento do cérebro humano: é uma rede neural, ele aprende através de reforço de aprendizagem, tem uma estrutura hierárquica para lidar com percepções e assim por diante. Talvez haja mais alguns princípios básicos que ainda precisam descobrir - e que, então, permitir que alguém para espancar juntos alguma forma de "AI neuromórfica": uma com elementos plagiou biologia, mas implementadas de uma forma que não é totalmente biologicamente realista.
Outro caminho é a abordagem mais matemática "top-down", que faz pouco ou nenhum uso de conhecimentos da biologia e, em vez tenta resolver as coisas a partir de primeiros princípios. Este seria um caminho de desenvolvimento mais desejável do que neuromórfica AI, porque seria mais provável para forçar os programadores a entender o que eles estão fazendo em um nível profundo - tal como fazer um exame, ao trabalhar as respostas a si mesmo é provável que exigem mais compreensão do que fazer um exame, copiando um dos trabalhos de seus colegas de classe.
Em geral, queremos que os desenvolvedores do primeiro inteligência da máquina de nível humano, ou a primeira semente AI que vai crescer para ser a superinteligência, para saber o que eles estão fazendo. Gostaríamos de ser capazes de provar teoremas matemáticos sobre o sistema e como ele irá se comportar à medida que sobe através das fileiras da inteligência.
Pode-se também imaginar caminhos que dependem mais da força bruta computacional, como por como fazer uso extensivo de algoritmos genéticos. Esse caminho de desenvolvimento é indesejável, pela mesma razão que o caminho da neuromórfica AI é indesejável - porque poderia mais facilmente ter sucesso com menos de um pleno entendimento do que está sendo construído. Tendo grandes quantidades de hardware poderiam, em certa medida, substituir por ter profundo conhecimento matemático.
Nós já sabemos de código que, dada uma quantidade suficientemente ridícula de poder de computação, instanciar um agente superinteligente. O modelo Aixi é um exemplo. O melhor que posso dizer, que iria destruir o mundo. Felizmente, as quantidades necessárias de energia do computador é fisicamente impossível.
O caminho da emulação do cérebro inteiro, finalmente, iria continuar por, literalmente, fazer uma cópia digital de uma mente humana particular. A idéia seria a de congelar ou vitrificar um cérebro, cortá-la em fatias finas e alimentar essas fatias através de um conjunto de microscópios. Software automatizado de reconhecimento de imagem, então, extrair o mapa das conexões neurais do cérebro original. Este mapa 3D seriam combinados com modelos neurocomputacionais do funcionamento dos vários tipos de neurônios que constituem o neuropil, e toda a estrutura computacional seria executado em algum supercomputador suficientemente amplo. Esta abordagem exigiria tecnologias muito sofisticadas, mas nenhuma nova descoberta teórica profunda.
Em princípio, pode-se imaginar um processo de emulação suficientemente alta fidelidade que a mente digital que resulta reteria todas as crenças, desejos e personalidade do indivíduo carregado. Mas eu acho que é provável que antes que a tecnologia chegou a esse nível de perfeição, permitiria uma forma mais crua de emulação que renderia uma mente humana-ish distorcida. E antes que os esforços para alcançar a emulação do cérebro inteiro iria conseguir mesmo que grau de sucesso, eles provavelmente se espalhar para neuromórfica AI.
Talvez o caminho mais atraente para a superinteligência máquina seria um indireto, em que teríamos primeira melhorar própria cognição biológica da humanidade. Isto pode ser conseguido através, por exemplo, a engenharia genética, juntamente com inovações institucionais para melhorar a nossa inteligência e da sabedoria coletiva.
Não é que isso de alguma forma nos permitir "manter-se com as máquinas" - agora, os derradeiros limites de processamento de informações em substrato máquina ultrapassam os de um córtex biológico porém muito melhorada. O contrário é, em vez do caso: melhoria cognitiva humana seria apressar o dia quando as máquinas nos ultrapassar, desde que os humanos mais inteligentes faria mais rápido progresso na ciência da computação. No entanto, afigura-se no equilíbrio benéfico se a transição para a era da inteligência da máquina foram projetados e supervisionados por uma raça mais competente do ser humano, mesmo que isso resultaria na transição acontecendo um pouco mais cedo do que o contrário.
Enquanto isso, podemos aproveitar ao máximo o tempo disponível, seja ele longo ou curto, começando a trabalhar sobre o problema de controle, o problema de como garantir que os agentes superinteligentes seria seguro e benéfico. Esta seria uma ocupação adequada para alguns dos melhores talentos matemático da nossa geração.
The Conversation organizou uma sessão de perguntas e respostas do público no Reddit em que Nick Bostrom, diretor do Future of Humanity Institute da Universidade de Oxford, falou sobre o desenvolvimento de inteligência artificial e de temas relacionados.
O Galaxy diário via The Conversation
Este artigo é publicado cortesia de The Conversation (sob Creative Commons Attribution / Não-derivados).
Crédito da imagem: Com graças ao Discovery Channel.
Nenhum comentário:
Postar um comentário