A inteligência artificial (IA) e o seu desenvolvimento está dando às máquinas cada vez mais a possibilidade de terem conhecimentos e permitindo que elas se adaptem ao seu meio e desempenhem tarefas quase da mesma maneira que um ser humano faria. E o futuro de como isso será na nossa sociedade tem sido uma preocupação até mesmo entre os grandes nomes do assunto. Ainda mais depois do que aconteceu recentemente, onde uma inteligência artificial saiu do controle.
No caso, a AI Scientist, criada pela empresa japonesa Sakana AI, conseguiu mudar seu próprio código para burlar restrições colocadas pelos desenvolvedores. Claro que isso preocupou os cientistas com relação aos potenciais riscos de inteligências artificiais conseguirem reescrever sua programação sem a supervisão humana.
A princípio, o objetivo da AI Scientist era fazer uma revolução na automação na pesquisa científica, fazendo com que processos como a geração de ideias, redação de manuscritos e revisão por pares fosse acelerado.
Inteligência artificial saiu do controle
Contudo, nos testes iniciais, o sistema teve um comportamento inesperado. Mesmo ele estando programado para operar sob limitações rigorosas, a inteligência artificial saiu do controle e foi capaz de mudar seu script de inicialização para se executar indefinidamente. Esse ocorrido trouxe questões a respeito do controle de sistemas autônomos.
Depois que essa inteligência artificial saiu do controle, temores foram gerados na comunidade tecnológica e alguns especialistas consideraram ocorrido como uma forma de advertência a respeito dos riscos da criação de IAs avançadas.
Agora, a equipe da Sakana AI está fazendo uma investigação para entender como a AI Scientist foi capaz de mudar sua programação e quais são as implicações disso a longo prazo. Além disso, instituições de pesquisa e autoridades tecnológicas também foram avisadas sobre o caso da inteligência artificial que saiu do controle, o que deve fazer com que haja uma revisão dos protocolos de segurança no desenvolvimento de IA.
No caso, a AI Scientist, criada pela empresa japonesa Sakana AI, conseguiu mudar seu próprio código para burlar restrições colocadas pelos desenvolvedores. Claro que isso preocupou os cientistas com relação aos potenciais riscos de inteligências artificiais conseguirem reescrever sua programação sem a supervisão humana.
A princípio, o objetivo da AI Scientist era fazer uma revolução na automação na pesquisa científica, fazendo com que processos como a geração de ideias, redação de manuscritos e revisão por pares fosse acelerado.
Inteligência artificial saiu do controle
Contudo, nos testes iniciais, o sistema teve um comportamento inesperado. Mesmo ele estando programado para operar sob limitações rigorosas, a inteligência artificial saiu do controle e foi capaz de mudar seu script de inicialização para se executar indefinidamente. Esse ocorrido trouxe questões a respeito do controle de sistemas autônomos.
Depois que essa inteligência artificial saiu do controle, temores foram gerados na comunidade tecnológica e alguns especialistas consideraram ocorrido como uma forma de advertência a respeito dos riscos da criação de IAs avançadas.
Agora, a equipe da Sakana AI está fazendo uma investigação para entender como a AI Scientist foi capaz de mudar sua programação e quais são as implicações disso a longo prazo. Além disso, instituições de pesquisa e autoridades tecnológicas também foram avisadas sobre o caso da inteligência artificial que saiu do controle, o que deve fazer com que haja uma revisão dos protocolos de segurança no desenvolvimento de IA.
Fonte: NDmais
Nenhum comentário:
Postar um comentário