Piloto se foi: Estados Unidos têm pouco tempo para ter caças controlados por IA – 09/06/2020

Força Aérea dos EUA EUA Ele pretende colocar caças-pilotos humanos contra aeronaves autônomas usando inteligência artificial em um desafio que ocorrerá em julho do próximo ano.

As declarações do tenente-general Jack Shanahan, responsável pela adoção da inteligência artificial nas forças armadas, não deixaram claro se a espaçonave seria 100% autônoma e poderia ser um trabalho conjunto do homem e da inteligência artificial.

Força Aérea dos EUA EUA Você já está desenvolvendo alguns projetos usando inteligência artificial. É o caso do XQ-58A Valkyrie, um projeto de baixo custo para acompanhar aeronaves de combate movidas a humanos.

Aeronaves sem humanos a bordo poderiam realizar manobras que seriam impossíveis para um piloto, sem mencionar que sua aerodinâmica e peso poderiam ter um desempenho melhor se não fossem necessários equipamentos de suporte à vida, como o assento ejetor.

Por causa de sua audácia, a revista Air Force chamou o projeto de “tiro na lua”, uma hipérbole que se refere ao projeto Apollo, que levou o homem à lua. A palavra tornou-se sinônimo de grandes desafios tecnológicos de alta complexidade.

Em sua entrevista à revista, Shanahan comentou que uma das possibilidades seria usar não um grande lutador, mas algo menor, com capacidade de enxame, ou seja, vários drones menores que trabalham juntos conversando entre si.

Shanahan acredita que a máquina levará muito tempo para substituir completamente os seres humanos nos próximos anos.

O tenente-general lembra que, embora as empresas privadas tenham investido dezenas de bilhões na última década, nenhuma delas conseguiu entregar um carro autônomo de nível 4, quando um motorista humano não é mais necessário.

No entanto, existe uma grande diferença entre dirigir em uma cidade e realizar um combate aéreo. Pode parecer estranho, mas a segunda opção é muito mais simples. Não há semáforos, crianças jogando bola na rua e milhões de outras situações ou sinais que um carro precisa entender.

Em um simpósio militar na Flórida, Elon Musk, CEO da Tesla e da Space X, argumentou que mesmo o F-35 Lightning II, considerado o auge da tecnologia militar, deveria ter um projeto competitivo que use inteligência artificial.

Mais tarde, quando alguém citou sua declaração, ele foi ainda mais incisivo no Twitter, dizendo que o projeto concorrente deveria ser um drone controlado por humanos controlado remotamente, mas com manobras autônomas. Segundo ele, o F-35 não teria chance contra isso.

Vale lembrar que o F-35 é o projeto militar mais caro dos EUA. EUA, com um custo estimado de US $ 406 bilhões. Um assunto delicado, especialmente se lembrarmos que a China se tornou o país líder em investimentos em inteligência artificial. Embora os especialistas apontem que a China não se concentra em projetos de defesa, a falta de transparência nunca deixaria claro que eles estão trabalhando em um projeto competitivo.

Aeronaves controladas por inteligência artificial não são exatamente uma novidade, dezenas de países possuem armas com maior capacidade ou com algum tipo de autonomia. Um exemplo disso é o projeto israelense Harpia, um drone que varre uma grande área para detectar radares inimigos. Ao localizar o alvo, a equipe voa em direção à equipe como um kamikaze, destruindo os dois na colisão.

Imagem de arma autônoma da Harpia - divulgação

Imagem de armas harpias autônomas

Imagem: Divulgação

A evolução das armas letais autônomas pode fortalecer a discussão sobre possíveis regulamentações globais.

Em 2012, Jody Williams, laureada com o Prêmio Nobel da Paz (1997), criou uma campanha que busca proibir a criação de armas 100% autônomas.

Segundo a campanha, robôs letais 100% autônomos podem trazer enormes problemas, como exceder os limites morais necessários para eleições complexas, criar uma corrida de guerra desestabilizada, incentivar guerras (devido à ausência de risco para as tropas do atacante), causando novos guerras por riscos cometidos pela decisão de provocar ataques desproporcionais e ainda serem usados ​​por governos autoritários para controlar a população.

Com o nome sugestivo de Stop Killer RobotsO projeto é apoiado por, entre outros, 26 vencedores do Prêmio Nobel, o Secretário-Geral das Nações Unidas, membros do Parlamento Europeu e mais de 4.500 cientistas de inteligência artificial.

A discussão não é nova, mas está apenas começando. E a campanha não será fácil, pois alguns países são contra, entre eles, imagine os Estados Unidos, a China e a Rússia.

You May Also Like

About the Author: Edson Moreira

"Zombieaholic. Amadores de comida amadora. Estudioso de cerveja. Especialista em extremo twitter."

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *