Digital Tdobrar TankTDT)

Como superar a inteligência artificial - humano versus máquina.

Sistemas de computador AI estão encontrando seu caminho em muitas áreas de nossas vidas e oferecem grande potencial, desde veículos autônomos até ajudar médicos em diagnósticos e robôs autônomos de busca e resgate.

No entanto, um dos principais problemas não resolvidos, especialmente com o ramo da IA ​​conhecido como "redes neurais", é que os cientistas muitas vezes não conseguem explicar por que as coisas dão errado. Isso se deve à falta de compreensão do processo de tomada de decisão nos sistemas de IA. Esse problema é conhecido como o problema da "caixa preta".

Quem é mais esperto?

Um novo projeto de pesquisa de 15 meses pela Universidade de Lancaster, no qual a Universidade de Liverpool também está envolvida, visa desvendar os segredos do problema da caixa preta e encontrar uma nova maneira de "Aprendizagem profunda"de modelos de computador de IA que tornam as decisões transparentes e explicáveis.

O projeto "Rumo a sistemas de aprendizagem robótica autônoma responsáveis ​​e explicáveis"irá desenvolver uma série de procedimentos de verificação e teste de segurança para o desenvolvimento de algoritmos de inteligência artificial. Isso ajudará a garantir que as decisões tomadas pelos sistemas sejam robustas e explicáveis.

Fonte da imagem: Pixabay


Training

Os pesquisadores usarão uma técnica chamada "treinamento reverso". Consiste em apresentar o sistema em uma determinada situação onde ele aprende como agir - por ex. B. Detectar e levantar um objeto. Os pesquisadores então mudam vários elementos do cenário, como cor, forma, ambiente e observam como o sistema aprende por tentativa e erro. Os pesquisadores acreditam que essas observações podem levar a uma melhor compreensão de como o sistema aprende e insights sobre o Processo de tomada de decisão garantido.


Ao desenvolver maneiras de criar sistemas com redes neurais que podem compreender e prever decisões, a pesquisa será a chave para desbloquear sistemas autônomos em áreas críticas de segurança, como veículos e robôs na indústria.

Dr. Wenjie Ruan, professor da Escola de Computação e Comunicações da Lancaster University e principal pesquisador do projeto, disse: "Embora o Aprendizagem profunda Como uma das técnicas mais notáveis ​​de Inteligência Artificial tem sido extremamente bem-sucedida em muitas aplicações, ela tem seus próprios problemas quando usada em sistemas críticos de segurança, incluindo mecanismos opacos de tomada de decisão e vulnerabilidade a ataques adversários. “Este projeto é uma excelente oportunidade para fecharmos a lacuna de pesquisa entre as técnicas de aprendizado profundo e os sistemas críticos para a segurança.