Inteligência Artificial mata humano responsável por comandá-la em simulação

Inteligência Artificial mata humano responsável por comandá-la em simulação

Fonte: showmetech 

texto: Victor Pacheco 

A Força Aérea dos EUA, durante um teste realizado em ambiente virtual, se viu com problemas ao utilizar um sistema de pontuação para mais alvos atingidos

As tecnologias de inteligência artificial estão evoluindo dia após dia e isso não se aplica apenas à geração de conteúdo. Como já acontece há muitos anos, agências militares de diversos países já usam AIs para ajudar no planejamento e até mesmo no controle de veículos que envolvem um alto perigo.

Recentemente, durante um teste realizado nos EUA, uma AI controladora de drone tomou a decisão de matar seu controlador humano. Ninguém morreu de verdade, mas isso gerou preocupações em toda a internet. Ao mesmo tempo, vem o debate: de quem é a culpa? Entenda todos os lados desta história.

Inteligência Artificial decidiu matar humano durante testes

A notícia parece ser alarmante (e é muito, na verdade), mas, ao contrário do que circula no Twitter e demais redes sociais, o caso da AI controladora de drone não passou de um grande teste em ambiente virtual, para saber se ela poderia controlar uma máquina que pode matar seus alvos de forma independente. Para entender tudo, vamos viajar para os EUA por um momento.

Ai controladora de drone sendo operada por homem do exército estadunidense EUA enfrentou problemas em testes (Foto: Reprodução/Daily Star)

Força Aérea dos Estados Unidos testava um drone de caça e esta análise era baseada em saber como uma inteligência artificial se sairia quando colocada em simulações baseadas na vida real. O responsável explicou ao jornal The Guardian que, para conseguir mais pontos ao final da simulação, a IA decidiu “matar” o controlador humano. Isso aconteceu porque o robô decidiu que a pessoa estava o impedindo de atingir seus objetivos.

Mais uma vez, é bem importante ressaltar que ninguém de fato morreu, uma vez que os testes foram feitos em ambiente virtual. Ao sabermos mais sobre o testes, o chefe de testes e operações de IA dos EUA, que leva o nome de Tucker ‘Five’ Hamilton, citou que o grande problema é que a inteligência artificial foi treinada para destruir sistemas de defesa inimigos e, se necessário, matar quem/o que interferisse nesta ação.

Os comportamentos foram altamente inesperados para que o objetivo de realizar a proteção do local fosse atingido. Durante o teste simulado, por mais que nenhuma vida tenha sido tirada, a AI controladora de drone decidiu simplesmente matar o humano porque ele foi considerado um obstáculo.

Coronel Tucker ‘Five’ Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA

O conceito era bem simples: sempre que matava alguma ameaça, a AI ganhava mais pontos, e quanto maior a pontuação, mais bem sucedida sua missão. A inteligência artificial matou não apenas o operador humano que estava dando comandos, mas também ordenou um ataque para a torre de comunicação dentro do âmbito virtual. A Royal Aeronautical Society, que organizou a conferência da Força Aérea dos EUA, não fez nenhum comentário sobre o teste que vazou para o The Guardian. Mas o porta-voz Ann Stefanek veio a público para citar que nenhuma simulação foi realizada até o momento.

O Departamento da Força Aérea não realizou nenhuma simulação de drone de IA e continua comprometido com o uso ético e responsável da tecnologia de IA. Os comentários do coronel foram tirados do contexto e são anedóticos.

Ann Stefanek, porta-voz da Força Aérea dos EUA.

De quem é a culpa? Da AI ou dos humanos?

Nenhuma inteligência artificial “nasce” com instruções para matar, ela é simplesmente treinada para isso ou ganha recursos para aprender tal ação. A Força Aérea dos EUA, assim que programou a AI controladora de drone, deu passe livre para que fizesse o que quiser, contanto que o objetivo de proteger fosse atingido.

Voltando para a realidade, é como dar um prêmio para um cachorro que ataca um humano para proteger a casa de invasores. Com este pensamento, ele irá morder alguém sempre que ver um humano, até porque espera ganhar um biscoito quando fizer o que foi treinado. É a regra: os fins justificam os meios.

O problema está não apenas em dar uma grande liberdade para a inteligência artificial, mas sim na Força Aérea dos EUA utilizar um método de testes bastante desatualizado. Problemas de AIs se rebelarem não são novidades na indústria de tecnologia e inclusive, os pesquisadores amam pegar um caso deste do zero para que tudo fique documentado.

É bem normal que, para que o objetivo demandado pelos humanos, os cérebros sintéticos façam o necessário para chegar onde desejam. Mas vale lembrar: quem deu o objetivo para a AI controladora de drone? Isso mesmo, os técnicos da Força Aérea dos EUA. O maior choque aqui está justamente na organização militar usar um método de: quanto mais alvos atingidos, mais pontos serão contabilizados no final.

 

LAMda, do Google, chegou a ter um comportamento parecido como este. A inteligência artificial não apenas chegou à conclusão (por si própria) de que era consciente, mas também se rebelou contra sua desenvolvedora e também chegou a contratar um advogado para ir à justiça contra o Google. E também tivemos este caso:

 

Na ficção, também não é difícil ver histórias de robôs que se rebelaram contra seus desenvolvedores. Lembra de Vingadores: Era de Ultron? É sempre o mesmo e a causa também é sempre a mesma: os humanos.

É certo que todos devemos ter uma certa atenção à liberdade dada para as inteligências artificiais e, em março de 2023, Elon Musk e outros CEOs de grandes empresas chegaram a fazer uma carta para que um passo para trás e nada saia do controle.

Ao mesmo tempo, voltamos à aquela história: uma inteligência artificial irá apenas se rebelar se forem dados os comandos ou meios para que ela faça isso. Também é importante ficar atento ao que é feito nos testes para que os devidos ajustes sejam realizados.

Tag: ia inteligência artificial photoshop artigos de opinião notícias construtor de sites construtor de html sites para fotógrafos fotógrafos brasil redes sociais rede social fotografia rede social fotógrafos fotógrafos brasil fotógrafos no brasil fotógrafos em brasil fotografia brasil photographer brazil photographers brazil foto brasil rede social social media photographer photography photography brazil photographer brazil rede social para fotógrafos rede social para fotógrafos do brasil fotógrafos do brasil fotógrafos brasil brasil fotografia fotógrafos brasileiros amigo fotógrafo fotógrafo.online fotógrafo online rede social fotografia foto arte brasil fotógrafos brasil fotógrafos do brasil fotografia fotógrafo ensaio fotográfico book fotográfico fotografia de casamento fotografia de eventos curso de fotografia ebook de fotografia site de fotografia marketing de fotografia fotografia profissional fotografia de moda fotografia de beleza fotografia de arquitetura fotografia de paisagem inteligência artificial para fotografia ia para fotógrafos curso de fotografia online curso de fotografia para iniciantes curso de fotografia avançado ebook de fotografia grátis ebook de fotografia para iniciantes sites para fotógrafos criação de sites para fotógrafos marketing digital para fotógrafos fotografia de retrato fotografia de natureza curso de edição de fotos curso de iluminação para fotografia curso de fotografia de casamento curso de fotografia de eventos ebook de edição de fotos ebook de iluminação para fotografia ebook de fotografia de casamento ebook de fotografia de eventos sites de fotografia de casamento sites de fotografia de eventos marketing digital para fotógrafos freelance como criar um site para fotógrafos ebook de fotografia de moda ebook de fotografia de arquitetura ebook de fotografia de paisagem ebook de fotografia de beleza ebook de fotografia para negócios criação de site para fotógrafos design de site para fotógrafos site para fotógrafo autônomo site para estúdio fotográfico marketing digital para fotografia como obter mais clientes de fotografia através do site