Digital Tdobrar TankTDT)

Jornada nas estrelas hoje: a humanidade pode não ser capaz de controlar a inteligência artificial superinteligente?

A humanidade pode não ser capaz de controlar a inteligência artificial superinteligente (IA), acreditam os autores de um estudo teórico recente. Além disso, podemos nem saber que temos esse tipo de AI (inteligência artificial) criaram.
O rápido progresso dos algoritmos de inteligência artificial está ocorrendo diante de nossos olhos. Máquinas vencem humanos em go and poker, vencem pilotos de caça experientes em combate aéreo, aprendem do zero por tentativa e erro, anunciam uma grande revolução na medicina e nas ciências da vida, fazem diagnósticos tão bem quanto médicos e podem diferenciar melhor as aves do que os humanos. Isso mostra como o progresso é rápido em muitas áreas.

Fonte da imagem: Pixabay


Referência do episódio de Star Trek: Geral / Androids - AI

Com esse avanço, vem a preocupação de saber se seremos capazes de controlar a inteligência artificial. Preocupações que foram levantadas por pelo menos várias décadas. Conhecemos os três famosos desde 1942 Leis do Robôque favoreceram o escritor Isaac Asimov descrito em seu conto "The Game of Tag":

1) Um robô não deve causar danos a uma pessoa ou, por inação, permitir que danos sejam causados ​​a uma pessoa,

2) um robô deve obedecer aos comandos de um humano, desde que não violem a primeira lei, e

3) um robô deve se proteger, desde que não infrinja a primeira ou a segunda lei.

Adicionado posteriormente Asimov uma lei abrangente 0 é adicionada: Um robô não deve causar danos à humanidade ou causar danos por omissãoEm 2014, o filósofo Nick Bostrom, diretor do Instituto para o Futuro da Humanidade da Universidade de Oxford, estudou como a IA superinteligente pode nos destruir, como podemos controlá-la e por que vários métodos de controle podem não funcionar. Bostrom identificou dois problemas com o controle da IA. O primeiro é o controle sobre o que a IA pode fazer. Por exemplo, podemos controlar se ele deve se conectar à Internet. A segunda é o controle sobre o que deseja fazer. Por exemplo, para controlá-lo, temos que lhe ensinar os princípios da coexistência pacífica com os humanos. Como observou Bostrom, uma IA superinteligente provavelmente será capaz de superar quaisquer limitações que quisermos colocar sobre o que ela pode fazer. Quanto ao segundo problema, Bostrom duvida que sejamos IA superinteligente poderia ensinar qualquer coisa.

Agora, Manuel Alfonseca e sua equipe da Universidad Autonoma de Madrid decidiram enfrentar o problema de controle da inteligência artificial. Ele descreveu os resultados de seu trabalho em Jornal de Pesquisa em Inteligência Artificial.

Os espanhóis observam que qualquer algoritmo que supostamente garanta que a IA não prejudique as pessoas deve primeiro simular um comportamento que pode resultar em danos a uma pessoa, para que a máquina possa reconhecê-lo e detê-lo. Porém, de acordo com os pesquisadores, nenhum algoritmo será capaz de simular o comportamento da inteligência artificial e determinar com absoluta certeza se determinada ação tem probabilidade de resultar em danos aos humanos. Já foi provado que Primeira lei de Asimov é um problema que não pode ser calculado.
Além disso, podemos nem saber que criamos uma máquina superinteligente, concluem os pesquisadores. A razão é que Teorema de arroz, que diz que você não pode adivinhar o resultado de um programa de computador apenas olhando seu código.

Mas Alfonseca e seus colegas também têm boas notícias. Bem, não precisamos mais nos preocupar com o que a IA superinteligente vai fazer. Existem, de fato, três restrições principais ao tipo de pesquisa que os espanhóis realizam. Em primeiro lugar, essa IA superinteligente só surgirá em 200 anos. Em segundo lugar, não se sabe se é mesmo possível criar esse tipo de inteligência artificial, ou seja, uma máquina que é inteligente em tantas áreas quanto os humanos. E terceiro, mesmo que não possamos controlar a IA superinteligente, ainda deve ser possível controlar a inteligência artificial superinteligente dentro de uma faixa estreita.