Vous êtes sur la page 1sur 21

A Corrida Armamentista pela Inteligência Artificial

Aspirante a Oficial Gabriel Adriano de Melo1


Aspirante a Oficial Lourenço Bruno da Cunha Neto2
Aspirante a Oficial Geovanna Santos Nobre de Oliveira3
Aspirante a Oficial Wesley Proença de Camargo4
Aspirante a Oficial Gianluigi Dal Toso3
1º Ten Marcos Antonio do Nascimento5

Resumo

Este trabalho apresenta os principais desenvolvimentos no campo da


inteligência artificial (IA) aplicados ao meio militar, analisando desde seu
emprego em veículos e em sistemas de armamento autônomos até sua
aplicação no auxílio à logística e à administração de recursos, realizando
estimativas de manutenção da frota. Além disso, faz-se uma revisão das
principais políticas adotadas pela China e pelos Estados Unidos, os dois
principais atores nessa área, a respeito do desenvolvimento de armamentos
autônomos, de sua segurança e de suas implicações sociais e éticas. Por fim,
trata-se de uma previsão para os desenvolvimentos futuros, realizando-se
um levantamento dos principais valores para a elaboração de uma estratégia
nacional brasileira de inteligência artificial.

Palavras-chaves: Militar. Defesa. Desenvolvimento. Armamentos Autônomos.

1 Introdução

A pesquisa em inteligência artificial (IA), dada desde o início do século passado,


cujo termo foi criado em 1956 por John Mac. A explosão de aplicações em IA, no início
de década de 2010, foi possibilitada principalmente por três fatores, sejam eles: a
disponibilidade de grandes conjuntos de dados, os avanços nas técnicas de aprendizado
de máquina e o aumento da capacidade de processamento dos computadores (SAYLER,
2019a). Os recentes avanços tecnológicos na área de IA contribuíram para o surgimento
de novos sistemas de armamentos autônomos e para a largada de uma verdadeira corrida

pela IA, com semelhança à corrida espacial da década de 60 entre os Estados Unidos

1Aspirante do 9° semestre do curso de Engenharia de Computação do Instituto Tecnológico de Aeronáutica e 3° ano do


Estágio de Preparação de Oficiais Engenheiros,CPORAER.
2Aspirante do 7° semestre do curso de Engenharia de Computação do Instituto Tecnológico de Aeronáutica e 2° ano do
Estágio de Preparação de Oficiais Engenheiros,CPORAER.

1
3Aspirante do 5° semestre do curso de Engenharia de Computação do Instituto Tecnológico de Aeronáutica e 1° ano do
Estágio de Preparação de Oficiais Engenheiros,CPORAER.
4Aspirante do 9° semestre do curso de Engenharia Aeroespacial do Instituto Tecnológico de Aeronáutica e 3° ano do
Estágio de Preparação de Oficiais Engenheiros,CPORAER.
5
Orientador. Instrutor do Centro de Preparação de Oficiais da Reserva da Aeronáutica de São José dos Campos –
CPORAER-SJ.

e a União Soviética, cuja posição competitiva frente aos Estado Unidos hoje se dá pela
China (HARARI, 2019). Estes sistemas foram proporcionados pelo surgimento de novas
técnicas de aprendizado de máquina, destacando-se as redes neurais artificias profundas,
além de uma maior quantidade de poder computacional e dados disponíveis.
Segundo Harari (2019), a corrida da IA se encontra cada vez mais concentrada
nas duas principais potências: Estados Unidos e China. Estes países fizeram da
inteligência artificial uma política de estratégia nacional. A capacidade da IA para
influenciar o comportamento humano foi observado no escândalo envolvendo a empresa
Cambridge Analytica e seu processamento de dados a fim de influenciar as eleições
americanas (BERGHEL, 2018). A matéria-prima para esse tipo de indústria são os dados
coletados a partir da atividade de usuários ou de sensores e ainda segundo Harari (2019),
uma nova forma de colonialismo caracterizada pela mineração de informações pode
existir: o colonialismo de dados. Como forma de combater o imperialismo dessas
potências, o autor sugere a criação de políticas inter-regionais e também a regulação
dessa coleta de dados, tal como são pagos royalties pela extração de minerais e de
petróleo.
A inteligência artificial irá trazer objetos inertes à vida, tal qual a eletricidade há
um século, tudo o que se havia eletrizado agora será cognitizado (SAYLER, 2019a).

1.1 Definições de Inteligência Artificial (IA)

Não existe uma definição comumente aceita de IA, contudo podem-se citar as
quatro principais definições: pensar como seres humanos, pensar racionalmente, agir
como seres humanos ou agir racionalmente (RUSSELL; NORVIG, 2009). Sobretudo,
por uma definição pragmática, sistemas artificiais inteligentes devem funcionar, isto é,
satisfazer os requisitos pelos quais foram projetados, caso contrário, seriam classificados
como sistemas não inteligentes, mas “ineptos”.
Também é importante definir dois conceitos de IA: forte (generalista) e fraca
(especialista). A definição de uma IA forte se dá em um sistema com capacidades de
resolver uma ampla gama de problemas tal qual, ou ainda melhor que, um ser humano,
generalizando o conhecimento adquirido. Já a IA fraca é capaz de resolver apenas um
conjunto restrito de problemas, uma tarefa específica, como um jogo de xadrez ou
dirigir um carro, não sendo capaz de generalizar o seu conhecimento para outras tarefas.
Até hoje ainda não foi desenvolvida nenhuma IA forte, sendo esse campo de pesquisa
considerado o “Santo Graal” da computação.

2
2 As Estratégias Nacionais de IA

As Estratégias Nacionais de Inteligência Artificial estabelecem os objetivos, as


prioridades, os incentivos e os padrões que uma nação se comprometerá a desenvolver
em prol de seu crescimento tecnológico em IA. A Figura 2 mostra uma linha do tempo
das publicações de estratégias nacionais de inteligência artificial em diversos países. O
primeiro país a publicar a primeira estratégia foi o Canadá, no qual grandes
pesquisadores na área de redes neurais artificiais trabalham, a exemplo dos
pesquisadores Geoffrey Hinton, Yoshua Bengio e Yann LeCun que receberam o Prêmio
Turing em 2018, que pela sua significância seria um equivalente a um Prêmio Nobel em
computação. É importante notar que as estratégias nacionais dos outros países que não
sejam China ou Estados Unidos que estão em busca de se tornar ou se manter em
primeiro lugar mundial diferem significativamente com respeito a vários aspectos a
exemplo de regulamentos da indústria, da pesquisa científica, da capacitação e aquisição
de mão-de-obra especializada e das parcerias internacionais (DUTTON, 2018).

Figura 1 – Estratégias nacionais de Inteligência Artificial. FONTE: (DUTTON, 2018)

Do ponto de vista estratégico, a inteligência artificial pode ser vista como uma
tecnologia de propósitos gerais para melhorar a precisão, a velocidade e a escala de
tomadas de decisão autônomas em ambientes variados. Dessa forma, substituem ou
melhoram a capacidade humana em tarefas de reconhecimento de padrões, de predições
e de otimizações de objetivos (MAAS, 2019).
Em termos militares, os EUA já desenvolveram duas estratégias assimétricas
(offsets) baseados respectivamente em armamentos nucleares e em armamentos de alta
precisão e de invisibilidade a radares. Assim, a terceira estratégia americana (Third
Offset) se baseia no uso de novas doutrinas organizacionais e também no
desenvolvimento de sistemas autônomos e de IA (LEWIS, 2017).

3
2.1 China

Os chineses têm convicção de que ter a liderança em tecnologias de IA é um


fator crítico para o futuro da competição internacional, por poder econômico e militar
(ALLEN, 2019). A estratégia de IA da China data desde 2015 com o plano Made in
China 2025 e foi fortalecida em 2017 pelo New Generation Artificial Intelligence
Development Plan (AIDP), que evidenciou o novo foco da competição internacional de
tecnologias que moldarão o futuro.
O governo chinês mantém uma postura que prioriza o progresso da IA em
detrimento dos perigos associados a isso, o que poderia aumentar as chances de uma
escalada à guerra. Ao mesmo tempo, em uma posição pouco sincera, o governo chinês
apoia um banimento internacional de armamentos autônomos, embora a definição
chinesa desses LAWs seja extremamente restrita de forma a não prejudicar seu próprio
desenvolvimento (ALLEN, 2019).
Duas organizações chinesas criadas pelo Ministério da Defesa da China, sub-
sidiadas ao National University of Defense Techonology (NUDT) se destacam nesse
sentido: o Unmanned Systems Research Center (URSC) e o Artificial Intelligence
Research Center (AIRC). Nesse contexto, o governo chinês aposta no surgimento de
tecnologias disruptivas, que ofereçam uma alternativa melhor e mais econômicas que às
tecnologias atuais dominadas pelas forças armadas americanas, assim, uma frota de
minissubmarinos autônomos poderia por em cheque toda a frota de porta-aviões norte-
americanos. O acesso à tecnologia do mercado internacional garante uma vantagem
competitiva à China que, diferentemente da União Soviética, teve metade de suas
publicações científicas coautoradas por pesquisadores estrangeiros.
Apesar de ser a maior potência de IA em número de artigos e de patentes em IA,
ainda há fraquezas, sobretudo na questão de talentos, na produção de teorias e bases de
códigos inovadores. O governo chinês reconhece que o nível médio de inovação
tecnológica ainda é atrasado em comparação aos EUA e por isso criou um programa de
incentivo à IA nas universidades, com a formação de mais 5.000 professores nesse
campo de pesquisa e do incentivo a jovens talentos (ALLEN, 2019). Além disso, na área
de desenvolvimento de código base e de hardware, a China já recrutou vários
pesquisadores e executivos de empresas Taiwanesas, iniciando a produção de chips de
tecnologia litográfica inferior (de 28 nm).

2.2 Estados Unidos

O uso no processamento de dados para a geração de relatórios de inteligência foi


observado por (HAMILTON E KREUZER, 2018). Segundo Hasik (2018), a terceira
estratégia de vantagem (offset) dos americanos se baseia em uma nova organização
institucional e em novas tecnologias relacionadas a sistema autônomos e à IA, mudanças

4
que contemplariam profundas atualizações das doutrinas. Em uma visão histórica, as
duas estratégias de vantagem (offset) anteriores foram caracterizadas respectivamente
pelo desenvolvimento e produção em massa de armamentos nucleares e de armamentos
modernos de alta precisão, tais como mísseis teleguiados e aeronaves invisíveis a radar.
Destacam-se projetos recentes, a exemplo do enxame de drones Perdix da SCO
(Strategic Capabilities Office) da força aérea americana e também do projeto Sea
Hunter da marinha americana, uma embarcação autônoma anti-submarinos, e até
mesmo o projeto secreto Ghost Fleet. Em termos organizacionais, destacam-se o
Defense Innovation Unit Experimentation (DIUx) e também o Algorithmic Warfare
Cross-Functional Team, que analisa grandes quantidades de vídeos coletados por
drones.
Ainda há dúvida quanto à viabilidade técnica e ao custo de desenvolvimento
desses sistemas, sobretudo ao se analisar a vantagem que tais sistemas teriam sobre
adversários numerosos e distantes.
A exemplo de projetos fracassados tem-se o Future Combat System, uma coleção
de quatorze sistemas interconectados por uma extensa rede de comunicação robustas a
ataques eletrônicos, que permitiria aos comandantes ter uma visão em tempo real do
campo de batalha com decisões imediatas.
Em comparação com a China, manter tais sistemas de armas como uma
vantagem tática será muito mais difícil do que com as outras tecnologias desenvolvidas,
tendo em vista o seu uso dual e as relações comerciais com a China. Projetos de carros
autônomos são presentes em diversas empresas, americanas e chinesas, a exemplo da
Tesla, Uber, Ford, Alphabet, Baidu e Pony, desenvolvidos com uma finalidade comercial
e com relativa integração entre essas empresas, mas que também teriam aplicações
militares, caracterizando o seu uso dual. A integração comercial entre os EUA e a China
possibilita o acesso à essa tecnologia de forma relativamente fácil por essas partes, uma
vez desenvolvido um carro autônomo economicamente viável. Assim, o autor sugere
que a melhor estratégia a ser adotada pelos americanos seria uma guerra de atrito
econômico com a China, o que não necessitaria de nenhum avanço tecnológico mas
levaria a uma vantagem sobre os chineses (HASIK, 2018).
Como outro exemplo de aplicação, tem-se um sistema que ajude a antecipar o
lançamento de um míssil com capacidades nucleares e também monitorar e apontar
lançadores móveis de mísseis (PENTAGON, 2018).

2.3 Rússia

Não há uma estratégia ou um plano nacional de defesa que contemple especi-


ficamente o uso de IA, porém o presidente russo Vladmir Putin já ordenou o
desenvolvimento de tal estratégia, conforme foi relatado pela agência de reportagem
russa TASS (PUTIN, 2019), além de outras declarações reafirmando o interesse nacional

5
no assunto. Os objetivos a serem alcançados foram publicados pelo site oficial do
Kremlin (INSTRUCTIONS, 2019).
A Rússia está estabelecendo um número de organizações voltadas para de-
senvolvimento de inteligência artificial para o meio militar. Em Março de 2018, o
governo russo liberou uma agenda de IA de 10 pontos, que faz o requerimento para se
estabelecer algumas iniciativas como um Centro Nacional para IA e um Fundo para
Algoritmos e Programas Analíticos (SAYLER, 2019b).
Além desses dois países, a Rússia está tentando acompanhá-los por meio da
ênfase em desenvolvimento de veículos semiautônomos e autônomos (SAYLER,
2019b), como veículos aéreos não tripulados (RUSSIA, 2017).
Em termos de investimento na pesquisa e desenvolvimento em IA, a Rússia
encontra-se bem defasada se comparada com a China e com os Estados Unidos, ainda
mais com a redução de gastos militares nos últimos 3 anos (SAYLER, 2019b). Apesar
disso, em uma analogia ao campo cibernético, no qual a Rússia não detém grandes
empresas de tecnologia e, também, pouco investe em pesquisa fundamental em
computação, há uma capacidade de realizar operações cibernéticas ofensivas e perturbar
a segurança do ambiente cibernético. Da mesma forma, embora a Rússia não esteja
perto da liderança pela IA, há projetos de sistemas de armas autônomos que poderia
gerar uma assimetria no campo de batalha, caso fossem bem sucedidos.

2.4 Brasil

O Brasil não apresenta nenhuma política ou estratégia nacional que cite


diretamente o desenvolvimento de tecnologias autônomas ou de IA. Há, contudo, uma
observação genérica para o desenvolvimento de ciência e tecnologia (BRASIL, 2012a;
BRASIL, 2012b; BRASIL, 2017).
A pesquisa e o desenvolvimento brasileiro em IA encontram-se atrasados em
relação aos principais líderes, principalmente em termos de aplicações. Citam-se
iniciativas acadêmicas desenvolvidas pelas universidades e também a criação de
algumas organizações voltadas à pesquisa e a educação, a exemplo da CD&IA.Rio e o
Advanced Institute for Artificial Intelligence.
A Estratégia Brasileira para a Transformação Digital é o documento que mais faz
menção à IA, tratando-a de forma genérica em conjunto com outras áreas de pesquisas
tais como robótica colaborativa, big data, Internet das coisas, manufatura aditiva e a
nanotecnologia. Tais tecnologias são também de grande importância e são campos
férteis para aplicação de IA, contudo, é importante ressaltar que a IA é uma área que por
si só merece uma atenção especial, devido ao seu potencial disruptivo.
Os princípios básicos para uma proposta de uma estratégia nacional estão
elencados na Seção 6. O planejamento para o desenvolvimento de tal estratégia está

6
apresentado como projeto de cooperação internacional 914BRZ2023, no qual um
pesquisador da área está sendo selecionado para elaborar o documento.
2.5 A Corrida pela IA

Allen (2019) revela a preocupação que o governo norte-americano tem com


relação ao desenvolvimento de tecnologias relacionadas à IA na China. O imperativo
pela IA é retratado por MICHAEL e SHANEMAN (2018), que evidencia a visão do
Departamento de Defesa norte-americano sobre a criticidade do papel da IA na futura
capacidade militar.
Nesse contexto, o projeto Maven, também conhecido como Algorithmic War-
fare Crossfunctional Team, tem como objetivo trazer ao meio militar várias tecnologias
já desenvolvidas no meio civil em mineração e processamento de dados, a fim de
levantar novas capacidades para o setor de inteligência (MAGNUSON, 2017).
A corrida de IA ainda está em seus estágios iniciais e provavelmente ganhará
ritmo e intensidade a partir de 2020. O sucesso ou o fracasso, sem dúvida, definirão as
nações com vantagem militar e geopolítica (MELANIE, 2019). Mas (2019) faz uma
análise da viabilidade de controlar a corrida armamentista em relação ao
desenvolvimento de IA, fazendo um paralelo com o desenvolvimento de armas
nucleares. Já Geist (2016) declara que já é tarde para tentar controlar essa corrida
armamentista, sugerindo contingências para esse problema.

3 Sistemas Autônomos

Sistemas que podem mudar seu comportamento, em resposta a eventos não an-
tecipados durante sua operação, são chamados de "autônomos"(WATSON; SCHEIDT,
2005). Ou seja, são sistemas que, ao interagir com seu domínio, são capazes de aprender
e tomar decisões sem agentes externos ditarem o comando ou pouco o influenciarem.
Cossins (2019) afirma que o desenvolvimento da robótica já atingiu níveis
práticos de utilização comercial e militar, e ressalta a importância de um corpo físico
para o desenvolvimento da IA.

3.1 Veículos Autônomos

Veículos autônomos são tópicos de diversas discussões nos últimos anos dentro
da área de IA, devido a popularização e maior viabilização da construção de drones
remotamente controlados e autônomos, além de carros com as mesmas características.
No campo militar, UUVs (Unmanned Underwater Vehicle), como os descritos
pelo NAVSEA PMS-403, e UAV (Unmanned Air Vehicle), como o Predator e Global
Hawk construídos pelos americanos, são alguns exemplos (WATSON; SCHEIDT,
2005).

7
Quaranta (2017) ressalta o desenvolvimento de aeronaves não apenas remo-
tamente pilotas, mas também autônomas, capazes de cumprir missões mesmo sem
comunicação com o centro de controle.
O autor acredita que o desenvolvimento de veículos autônomos na área militar,
em maior escala, possibilitará abordagens menos custosas e mais seguras a longo prazo
para uma nação realizar atividades como rastreamento de zonas críticas e transporte
humano e de suprimentos.

3.2 Armamentos Autônomos

Existe uma discussão sobre a regulação ou o banimento desses armamentos em


uma análise de três diferentes países: o Brasil por Santos (2016), a Índia por Chansoria
(2016) e os Estados Unidos por Roff (2016). É interessante notar que, enquanto há uma
argumentação em torno dos benefícios e de uma possível regulamentação para tais
armamentos por parte dos americanos, a visão dos outros países tende a focar nas
violações dos direitos e da dignidade humana, argumentando pelo banimento de
armamentos autônomos ofensivos.
Já existem sistemas de armas autônomos estacionários com o objetivo de defesa,
sobretudo de ameaças aéreas. Contudo, a autonomia para ofensivamente selecionar e
engajar alvos humanos. O Exército dos EUA quer desenvolver pequenos drones para
identificar e atingir automaticamente veículos e pessoas. Pode permitir respostas mais
rápidas às ameaças, mas também pode ser um passo em direção a drones autônomos que
atacam alvos sem supervisão humana (HAMBLING, 2018).

4 Implicações da tecnologia

Segundo ALLEN e HUSAIN (2018), o balanço de poder no campo de batalha


pode ser afetado pelo uso de IA, sobretudo ao possibilitar que países pequenos, mas com
um profundo desenvolvimento tecnológico, possam utilizar desses sistemas para
aumentar a sua influência de poder. O uso assimétrico e insurgente dessas capacidades
pode ser também capaz de desestabilizar países que não tenham as contramedidas
necessárias. Outro ponto a ser ressaltado é o potencial para a modernização de
equipamentos já ultrapassados sem a necessidade de seguir todas as epatas de seu
desenvolvimento tecnológico, isto é, realizando-se um salto de etapas intermediárias. O
Exército Popular de Libertação tem, por exemplo, realizado a conversão de seus caças
J-6 e J-7 da década de 60 e de 70 para aeronaves remotamente pilotadas e autônomas.
Em termos da expressão de poder, que pequenos países em termos popula-
cionais, mas que estejam investindo fortemente em IA, podem-se citar como exemplo
Os Emirados Árabes Unidos e o Catar, em termos de destaque nos países árabes
(ALLEN; HUSAIN, 2018). Tais países já se utilizaram respectivamente de uma rede de
informação Al-Jazeera e de forças contratadas tecnologicamente avançadas para realizar

8
ataques precisos em seus inimigos. Isso revela que mesmo com um contingente
pequeno, mas altamente especializado de forças e de elementos técnicos, é possível
exercer uma projeção de poder, mesmo que não haja um histórico de liderança nessa
área.
A disponibilidade de equipamentos autônomos e cada vez mais modernos para
consumidores permitem que sejam improvisados armamentos cada vez mais letais e
eficazes, como drones-bomba e armas-de-fogo acopladas a plataformas de controle
remoto ou até mesmo autônomas. Os avanços na manufatura aditiva possibilitam que
complexos mecanismos sejam fabricados em impressoras 3-d disponíveis no mercado, o
que aumenta a viabilidade econômica desses armamentos improvisados. Dessa forma, a
capacidade autônoma, possibilitada pelos avanços na IA, aumentaria o seu poder
destrutivo contribuindo para um desbalanço de poder.
Nesse sentido, uma verdadeira corrida armamentista teria início para criar
contramedidas que fossem eficazes a tais armamentos, à medida que se busquem
sistemas capazes de ultrapassar tais contramedidas. Um exemplo recente desse
fenômeno se dá na área cibernética de edição de imagens, mais especificamente
conhecidas como deep fakes, no qual uma rede neural artificial é utilizada para
transplantar as expressões faciais de uma pessoa em uma imagem ou até em um vídeo
de outra, o que economiza centenas de horas de edição de vídeo manual e permite a
produção em massa de conteúdos falsos. Assim, uma outra arquitetura de rede neural
artificial foi criada para discernir vídeos que tenham sidos alterados pela primeira, que
por sua vez também começou a ser otimizada, tendo em vista o trabalho da segunda.
Assim, criaram-se gerações de modelos computacionais para criar e para discernir
conteúdos falsos.
As guerras do futuro poderiam ser travadas, sobretudo entre robôs, diminuindo
as perdas de vidas humanas, o que seria chamada de Guerras Robóticas (Word War)
(BARANIUK, 2014). Dessa forma, a batalha seria travada pelos engenheiros ao
conceberem sistemas autônomos cada vez mais capazes e econômicos. Contudo, o fator
limitante para o aprimoramento desses sistemas provavelmente não seria técnico, mas
político.
O Partido Comunista Chinês ressalta a importância estratégica da IA e estabelece
que até 2030 a China tome a liderança mundial nessa área, posição que hoje é detida
pelos Estados Unidos (CHINA, 2018; CHINA, 2017). Destaca-se o plano de Made in
China 2025. A ambição chinesa não passou despercebida aos olhos dos americanos
(JON, 2017), destacando-se a colaboração entre as indústrias chinesas em estrangeiras,
sobretudo da companhia de defesa China Electronics Techonology Group Corporation
(CETC) com a University of Technology Sydney (UTS). Na questão da quantidade de
dados que a China tem disponível para o treinamento de IA, a China é considerada a
“Arábia Saudita dos Dados” (ZAAGMAN, 2018).

9
Assim, os Estados Unidos, como resposta à estratégia chinesa, também lançou
uma nova política com respeito ao desenvolvimento de IA, tanto do ponto de vista do
desenvolvimento econômico e social (USA, 2018), quanto do ponto de vista de suas
aplicações militares (DOD, 2019). Em termos de pesquisa, há uma iniciativa para uma
terceira onda de inteligência artificial baseada em sua explicabilidade (DARPA, 2016).
Como exemplos de projetos, podemos citar a Força Aérea Americana, que está
desenvolvendo um sistema integrado de comunicação aérea autônoma, baseada em
inteligência artificial, com técnicas capazes de mitigar ataques de guerra eletrônica e
cibernéticos (KELLER, 2018a). Além disso, há vários projetos para um enxame de
drones autônomos (USAF, 2018). O exército americano também está realizando
pesquisas para aplicar AI em guerra eletrônica (Eletronic Warfare – EW); inteligência,
monitoramento e reconhecimento (intelligence, surveillance and reconnaissance– ISR);
reconhecimento, monitoramento e aquisição de alvos (reconnaissance, sur- veillance
and target acquisition – RSTA); operações cibernéticas ofensivas (offensive cyber
operations – OCO); inteligência de sinais (signals intelligence – SIGINT); pro-
cessamento, exploração e disseminação (processing, exploitation and dissemination –
PED); e análise de Big Data (KELLER, 2018b).
Outras aplicações incluem a pesquisa da DARPA para o desenvolvimento de
pequenos robôs similares a insetos (KELLER, 2019a). O projeto intitulado Microscale
Biomimetic Robust Artificial Intelligence Networks (Micro-BRAIN) se propõe a
desenvolver protótipos de modelos computacionais que possam ser mapeados
diretamente em hardware para que as suas funcionalidades possam ser emuladas
diretamente com maior eficiência energética. Novamente, a pesquisa tem uma
inspiração biológica advinda da capacidade dos insetos em exibir um comportamento
relativamente complexo com um sistema nervoso de tamanho reduzido. Portanto, existe
um desafio não apenas da manufatura de componentes menores, mas principalmente de
algoritmos de IA que possam exibir tal comportamento suficientemente complexo,
utilizando poucos recursos computacionais, tanto em termos de memória, de tempo, de
sensoriamento e de controle de atuadores.
A fim de concentrar os esforços das forças armadas americanas, o Secretário de
Defesa dos Estados Unidos estabeleceu o desenvolvimento do Joint Artificial
Intelligence Center (JAIC), uma organização que concentrá os esforços das aplicações
militares no desenvolvimento da IA (CRONK, 2019), tanto no campo de batalha como
em sistemas de logística e de manutenção. Isso mostra que se faz necessário uma
reestruturação organizacional para otimizar e propiciar tal desenvolvimento, a fim de
que não ocorra redundâncias nos projetos e de assegurar um financiamento adequado
para os mesmos. É ainda importante destacar.
Nesse sentido, propõe-se uma governança da IA, isto é, estabelecer padrões de
como a humanidade pode se adaptar melhor à transição de sistemas avançados de IA.
Essa tecnologia, considerada tão disruptiva quanto a própria eletricidade, deve ser

10
baseado em padrões internacionais de transparência, de justiça e de privacidade na visão
de (DAFOE, 2018). A Organização das Nações Unidas estabeleceu uma visão para o
avanço da “IA pelo bem comum”, utilizando-a como forma para atingir os seus
objetivos de desenvolvimento sustentável de 2030.
Em termos econômicos e sociais o avanço de IA e de automação irá aumentar a
eficiência e a produtividade da indústria no longo prazo, possibilitando que uma menor
quantidade de mão-de-obra humana consiga gerenciar uma capacidade maior de
máquinas. Nesta linha de pensamento, a automação trará cada vez mais prosperidade
inclusive com desenvolvimento sustentável propiciado por um uso mais eficiente dos
recursos naturais. Contudo, as implicações de curto prazo incluem uma vulnerabilidade
social gerada pelo desemprego em postos de trabalho perdidas para a automação. Dessa
forma é necessário que haja políticas para mitigar essa vulnerabilidade e o potencial
aumento das desigualdades sem que o desenvolvimento de IA seja prejudicado pois os
seus efeitos de longo prazo se tornam mais significativos do que as consequências de
curto prazo.

5 Segurança da Inteligência Artificial

No campo cibernético, Taddeo e Floridi (2018) sugerem a criação de normas


internacionais para regular o uso de IA. Caracterizado pelas invasões a sistemas e redes
de computadores, as operações cibernéticas tem uma nova gama de estratégias
disponíveis pelo uso de sistemas que sejam capazes não apenas de detectar ataques
automaticamente, mas também de contra-atacar. Assim, com uma capacidade de
dissuasão no meio cibernético poderia se justificar a aplicação de tais tecnologias como
benéfica para a sua segurança, contudo, é importante notar a possibilidade de ocorrência
de um ciclo vicioso nos ataques e contra-ataques autônomos que poderia culminar em
uma guerra. Em 2016, na competição patrocinada pela DARPA Cyber Grand
Challenge, tais sistemas autônomos foram desenvolvidos em um ambiente restrito, mas
que representam um passo inicial em sua ampla aplicação, sendo um marco na
necessidade de novas políticas cibernéticas. Nesta área devem ser propostas as
definições de barreiras legais sobre os limites da atuação automática de tais sistemas, as
operações conjuntas de teste e treinamento com outras nações aliadas e, por fim, a
monitoração e o cumprimento das regras estabelecidas a fim de garantir a estabilidade
do espaço cibernético.
Segundo Payne (2018), a IA deve reescrever as regras de combate de maneira
sútil, mas também aterrorizante, com ênfase em sistemas que auxiliem ou sejam
completamente autônomos nas tomadas de decisão. Nesse contexto de automação há o
perigo para que a dominação de escalada de forças, termo cunhado pelo estrategista
nuclear Herman Kahn (escalation dominance), fuja ao controle. Em uma simulação
entre dois agentes que compitam entre si com o objetivo de atingir a dominância sobre o
outro, observa-se uma escalada das forças de ataque que não cessa até a incapacitação

11
do inimigo, caracterizada pela alta velocidade e intensidade das ações tomadas. Nesse
contexto, o primeiro agente a hesitar ou a ter um atraso em sua resposta sofreria uma
desvantagem imediata que aumentaria sua probabilidade de derrota. Payne (2018) nota a
dificuldade em estabelecer normas internacionais que regulamentem esses sistemas de
tomada de decisão militares devido a vantagem estratégia de sua implementação, e
sugere que a solução aplicável é adquirir a dominância na corrida pela IA, uma solução
dita como clássica nos estudos estratégicos.
Swarte, Boufous e Escalle (2019) analisam as implicações éticas de um sistema
autônomo e a dependência que os seres humanos teriam com tal sistema. Utilizando
uma abordagem utilitarista, analisa-se a hipótese de que um sistema artificial possa ser
mais ético ou ainda respeitar melhor os valores humanos do que os próprios seres
humanos. Como o objetivo desses sistemas é justamente otimizar uma função de
utilidade, o grande dilema está em como conseguir definir tal função , de modo que
todos esses valores sejam refletidos nessa função. Assim, os dilemas éticos como o
Dilema do Bonde, no qual uma ação evita a morte de várias pessoas em detrimento de
outra, teriam a sua solução definida pela ação que maximiza a função de utilidade
computada pelo agente artificial. Há, contanto, limitações técnicas na demonstração de
que certa função de utilidade está sempre alinhada com os valores humanos, dado a
intratabilidade de um conjunto exponencial de permutação de situações. Dessa forma,
tendo em vista que não há oposição entre as ciências naturais e as ciências humanas,
observa-se que a ética empregada na IA é Pós-Kantiano (SWARTE; BOUFOUS;
ESCALLE, 2019).
Nesse contexto, Turchin e Denkenberger (2018) propuseram uma classificação
dos riscos relacionados à IA em seus diferentes níveis de desenvolvimento e ressaltaram
o fato de que ainda não há uma solução simples para a questão da segurança na IA.
Realizando-se uma análise de longo prazo, existe uma fronteira de auto-aperfeiçoamento
de um sistema artificial classificado com inteligência forte Artificial General
Intelligence (AGI) no qual há alta probabilidade de se perder o controle. Contudo,
mesmo uma IA fraca tem diversos riscos associados que devem ser endereçados, tais
como acidentes em uma infraestrutura crítica (em usinas geradoras de energia),
execução de comandos errados em armamentos autônomos, engenharia de biotecnologia
perigosa, adoção de soluções não testadas, vírus computacional baseado em IA que se
modifica, desemprego ocasionado por IA, desenvolvimento de armas, destruição em
massa auxiliados por IA, entre outros. Nesses diferentes cenários catastróficos os quais
são resultados de ações tomadas por IA, ressalta-se, ainda, o experimento do Basilisco
de Roko, que representa o risco existencial, que um futuro agente artificial possa ter,
inclusive sobre os seres humanos atuais. O perigo memético ocorre pelo
desenvolvimento de uma superinteligência artificial que tenha como objetivo o bem da
humanidade, devendo ser implementado o mais rápido possível para evitar desperdício e
sofrimento de vidas humanas com doenças ou condições cuja cura se tornaria possível.

12
Contudo, como forma de acelerar sua criação, esse agente irá punir todos aqueles
indivíduos que tomaram conhecimento de sua potencial existência, mas que não
ajudaram em sua criação. A punição se daria em uma tortura infinita dentro de uma
simulação controlada por esse agente, inclusive de indivíduos que já tenham falecido,
mas que de alguma forma possam ser encontrados por uma simulação do universo.
Dessa forma, o agente, mesmo que bem intencionado, estaria coagindo os seres
humanos atuais que tiveram conhecimento a trabalharem em prol de sua criação.
Além de tais falhas catastróficas, Guersenzvaig (2018) atenta para o fato de que
tais sistemas podem falhar ao princípio de discriminação, não sendo capazes de
distinguir civis de combatentes com a precisão requerida para diminuir o dano aos não
combatentes. Essa óptica está relacionada a sistemas capazes de automaticamente
selecionar o alvo, realizando a decisão de ataque sem intervenção humana. Ressalta-se a
existência de tais sistemas para objetivos de defesa, a exemplo da torreta Phalanx CIWS,
observada na Figura 2, que é montada em diversos navios de guerra americanos que
automaticamente atira contra mísseis e aeronaves inimigas supersônicos. Nesses
sistemas defensivos considera-se uma defesa reativa que está restrita a um envelope de
operações previamente definido e com um aceitável nível de previsibilidade que os
excluiriam de um banimento. Portanto, um banimento pre-emptivo em sistemas
autônomos letais estaria embasado na doutrina da guerra justa e no direito humanitário
internacional, supondo que a capacidade discriminatória e os erros cometidos por tais
sistemas fossem maiores.

Figura 2 – Sistemas de armas autônomo Phalanx CIWS utilizado para fins de defesa de
embarcações. FONTE: William Weinert (2008)

Utilizando tal análise, a maior parte das nações concordam que é necessário um
certo nível de regulação e de controle humano ao se produzir e ao se disponibilizar
armamentos cada vez mais autônomos (RIGHETTI et al., 2018). Vardi (2015) indica as

13
diferenças entre um sistema autônomo, capaz de selecionar os seus alvos por sua própria
decisão, de um sistema de atire-e-esqueça (fire-and-forget), uma vez selecionado o alvo
por um outro agente, cumpre apenas a ação especificada. Já Underwood (2017) nota que
não apenas a malevolência, mas também a incompetência técnica deve ser levada em
consideração na avaliação ética de um sistema de armas autônomo, que poderiam ser
mais imprevisíveis do que os combatentes humanos, levando a um dano maior aos não
combatentes.
Deste modo, a campanha para banir a produção de armamentos completamente
autônomos (Campaign to Stop Killer Robots) vem ganhando tração no meio civil,
sobretudo no ambiente europeu (Editorial Board, 2019). Contudo, Meuser (2016) afirma
que os recursos para resolver esses dilemas éticos já existem e que estão baseados em
armamentos atuais, principalmente do tipo teleguiados. Dessa forma, já existem
regulações para tais armamentos, além de doutrinas militares sobre o uso dos mesmos.
Adams (2017) também avalia o risco de que o desenvolvimento de armamentos
autônomos pode ter, destacando a repercussão contrária e também a favor, sobretudo do
presidente russo Vladmir Putin ao afirmar que a IA é o futuro de toda a humanidade,
com perigos difíceis de serem previstos, mas também grandes oportunidades,
ressaltando que as guerras do futuro poderão ser travadas, sobretudo entre os
armamentos autônomos das partes envolvidas.
A segurança da informação de modelos de aprendizado de máquina também é
alvo da IARPA, que pesquisa por soluções de segurança cibernética, ao garantir que
esses modelos não sejam comprometidos por ataques cibernéticos, tal projeto se intitula
Secure, Assured, Intelligent Learning Systems (SAILS) (KELLER, 2019b). Os modelos
de aprendizado de máquina atuais estão expostos a uma reconstrução parcial dos seus
dados de treinamento a partir dos parâmetros ajustados do modelo utilizado em
operação, tal ataque se denomina inversão de modelo que pode ser utilizado, por
exemplo, para a reconstrução facial das pessoas autorizadas a uma certa área. Outro
ataque utilizado é a inferência sobre o conjunto de pertinência, que por sua vez busca
determinar se um determinado padrão de entrada foi utilizado como um padrão de
treinamento, o que também pode comprometer a privacidade dos dados.

6 Uma proposta brasileira

Baseada nas estratégias de outros países, sobretudo dos Estados Unidos, e,


também, nas peculiaridades do Brasil, uma proposta brasileira para uma estratégia
nacional de IA deve ter como base os seguintes princípios que não se limitam à área de
defesa, mas também têm um foco no desenvolvimento econômico e social:

• Remoção de barreiras e criação de incentivos para inovação;


• Priorizar investimento em projetos de desenvolvimento e de pesquisa em IA;
• Utilizar IA para potencializar a automação de serviços públicos;

14
• Priorizar a educação de ciência, tecnologia, engenharia e matemática (STEM);
• Realizar parcerias internacionais e parceria público-privado;

A situação brasileira, em termos de desenvolvimento, de pesquisas e de


aplicações na área de IA, se encontra atrasada em relação a outros países de similar ou
maior desenvolvimento econômico. Segundo China (2018), o Brasil ocupa a 15a posição
em termos de artigos produzidos e 8ª posição em termos de autores. Contudo, se for
considerado o fator de impacto desses trabalhos utilizando-se o índice H, que quantifica
apenas as publicações que receberam mais citações, o Brasil ficaria na 23 a colocação, o
que pode indicar uma menor qualidade ou significância da média das publicações
brasileiras. Tais dados também podem ser observados na base Scimago Journal &
Country Rank.
Dessa forma, é crucial que soluções para problemas de IA não sejam
reinventadas em paralelo, mas aproveitadas as já existentes, sejam da iniciativa privada
ou de outros países a fim de otimizar os investimentos.
A economia deve estar preparada para a expansão da IA em seu meio, como
forma de aumentar a eficiência e a produtividade, mesmo que no curto prazo isso
signifique um aumento de mão-de-obra desqualificada. Dessa forma, é necessário o
segundo foco da estratégia, que é na educação.
O Brasil deve almejar a liderança nessa área, uma proposta um tanto ousada,
mas que possível em um desenvolvimento tecnológico, no qual o principal recurso são
as cabeças pensantes de pesquisadores, e desenvolvedores, de programadores, sendo
seguidos por dados e por quantidade de processamento.

7 Considerações finais

O desenvolvimento de novas tecnologias que possibilitem a produção em massa


de sistemas autônomos e mesmo a utilização de IA em tarefas específicas implica em
profundas mudanças, não apenas no campo militar, mas também em toda a sociedade. A
melhoria da eficiência em processos administrativos e o aumento da produção industrial
propiciada pela automação são exemplos da aplicação dessa tecnologia. Mesmo
pequenas melhorias na inteligência artificial podem ter um significativo impacto
econômico, uma vez que as capacidades tecnológicas de pesquisa e de produção
contribuam para um ciclo virtuoso de aprimoramento (RUSSELL; DEWEY;
TEGMARK, 2015).
Com tal capacidade produtiva, é necessário que sejam criadas políticas públicas
nacionais para incentivar a produção de tais sistemas e, sobretudo, para defender a
mineração de dados brasileiros. A ideia proposta por Harari (2019) de que o próximo
colonialismo será baseado em dados é assustadora para a nossa nação, que se encontra

15
em absoluto despreparo e pouco desenvolvimento nessa área, tornando-se fadada a ser
mais uma colônia de dados sobre a influência neo-imperialista.
Em termos de aplicações na área militar, observou-se uma forte utilização, tanto
na Força Aérea Americana (GIANNETTI, 2018), por meio de enxames de aeronaves
autônomas, quanto no Exército Americano (HENNIG; SCHWARTZ; BAILEY, 2017),
além da Marinha Americana (POURNELLE, 2017), que se comprometeram com a
causa da IA ou se arriscar a perder as próximas batalhas. Dessa forma, não apenas no
campo de batalha, mas também em atividades de logística, de manutenção e de
administração, o uso de IA é capaz de agregar valor, aumentando a eficiência e a
eficácia dessas atividades.
É também necessário considerações sobre segurança e ética no uso da IA. Dessa
forma se faz necessário a mitigação do desemprego de curto prazo, e também de
regulamentos internacionais para assegurar a estabilidade de operações que utilizem IA
de forma competitiva ou ainda no campo de batalha.
Por fim, é necessário que o Brasil aproveite todo o potencial que tal
desenvolvimento tecnológico pode proporcionar, principalmente pela capacidade de
avançar na escada tecnológica com um verdadeiro salto de tecnologias intermediárias
que se tornam obsoletas. Esse potencial do “pulo do gato” (leapfrog) propiciaria uma
economia do desenvolvimento de infraestrutura e um avanço tecnológico dos meios de
produção. Em um primeiro momento, é necessário que se recupere o atraso em IA, em
comparação com os principais líderes, implementando a aplicando as tecnologias já
existentes. Após esse período inicial, é necessário reestabelecer os objetivos para a
inovação com o desenvolvimento de novas técnicas que melhore as já existentes.

Agradecimentos

Agradecemos ao Centro de Computação da Aeronáutica de São José dos


Campos (CCA-SJ) e ao Instituto Tecnológico de Aeronáutica (ITA) por nos
proporcionarem apoio na elaboração deste trabalho.

Referências

ADAMS, R. Will robots go rogue?. Military Technology, v. 41, n. 11, p. 60 – 61, 2017.
ISSN 07223226.

16
ALLEN, G. C. Understanding China’s AI Strategy: Clues to Chinese Strategic Thinking
on Artificial Intelligence and National Security. Center for a New American Security
(CNAS), Washington DC, United States, 2019. Disponível em:
<https://www.cnas.org/publications/reports/understanding-chinas-ai-strategy>.

ALLEN, J.; HUSAIN, A. AI will change the balance of power. U.S. Naval Institute
Proceedings, v. 144, n. 8, p. 26 – 31, 2018. ISSN 0041798X.
BARANIUK, C. World war r. New Scientist, v. 224, n. 2995, p. 38 – 41, 2014. ISSN
02624079.

BERGHEL, H. Malice domestic: The cambridge analytica dystopia. Computer, v. 51, n.


5, p. 84–89, May 2018. ISSN 0018-9162.

BRASIL. Livro Branco de Defesa Nacional. Brasília, DF: Ministério da Defesa,


2012a.
BRASIL. Política Nacional de Defesa. Brasília, DF: Ministério da Defesa, 2012b.
BRASIL. Cenário de Defesa 2020-2039 Sumário Executivo. Brasília, DF: Ministério da
Defesa, 2017.

CHANSORIA, M. To ban or regulate autonomous weapons: An indian response. Bulletin


of the Atomic Scientists, v. 72, n. 2, p. 120–121, 2016. ISSN 19383282.

CHINA. New Generation Artificial Intelligence Development Plan. Ministry of Industry


and Information Technology, Science and Technology Department, Beijing, China, 2017.
Disponível em: <www.miit.gov.cn/n1146290/n4388791/c5960863/ content.html>.
CHINA. China AI Development Report 2018. China Institute for Science and Technology
Policy, Tsinghua University, Haidian, Beijing, China, 2018. Disponível em:
<http://www.sppm.tsinghua.edu.cn/eWebEditor/UploadFile/China_AI_
development_report_2018.pdf>.

COSSINS, D. The robots are here. New Scientist, v. 241, n. 3215, p. 34 – 38, 2019. ISSN
02624079.

CRONK, T. M. DOD Unveils Its Artificial Intelligence Strategy. U.S. DEPARTMENT OF


DEFENSE, 2019. Disponível em: <https://dod.defense.gov/News/Article/
Article/1755942/dod-unveils-its-artificial-intelligence-strategy/>.
DAFOE, A. Global politics and the governance of artificial intelligence. Journal of
International Affairs, v. 72, n. 1, p. 121 – 126, 2018. ISSN 0022197X.
DARPA. Explainable Artificial Intelligence (XAI). Defense Advanced Research Projects
Agency, Arlington, VA, USA, 2016. Disponível em:
<https://www.darpa.mil/attachments/DARPA-BAA-16-53.pdf>.

DOD. SUMMARY OF THE 2018 DEPARTMENT OF DEFENSE ARTIFICIAL


INTELLIGENCE STRATEGY: Harnessing AI to Advance Our Security and Prosperity.

17
DEPARTMENT OF DEFENSE, Defense Pentagon, Washington DC, USA, 2019.
Disponível em: <https://media.defense.gov/2019/Feb/12/2002088963/
-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF>.

DUTTON, T. An Overview of National AI Strategies. Politics


+ AI, 2018. Disponível em: <https://medium.com/politics-ai/ an-overview-of-national-ai-
strategies-2a70ec6edfd>.

Editorial Board. Don’t let bots pull the trigger. Scientific American, v. 320, n. 3, p. 6,
2019. ISSN 00368733.

GEIST, E. M. It’s already too late to stop the AI arms race—we must manage it instead.
Bulletin of the Atomic Scientists, Routledge, v. 72, n. 5, p. 318–321, 2016. Disponível em:
<https://doi.org/10.1080/00963402.2016.1216672>.

GIANNETTI, W. Artificial intelligence: Myths and realities. Air & Space Power Journal,
v. 32, n. 3, p. 92 – 95, 2018. ISSN 1555385X.
GUERSENZVAIG, A. Autonomous weapon systems: Failing the principle of
discrimination. IEEE Technology and Society Magazine, v. 37, n. 1, p. 55 – 61, 2018.
ISSN 0278-0097.

HAMBLING, D. Us is seeking smart killer drones. NEW SCIENTIST, v. 237, n. 3171, p.


8, 2018. ISSN 02624079.

HAMILTON, S. P.; KREUZER, M. P. The big data imperative: Air force intelligence for
the information age. Air & Space Power Journal, v. 32, n. 1, p. 4 – 20, 2018. ISSN
1555385X. Disponível em: <https://www.airuniversity.af.edu/Portals/10/
ASPJ_Spanish/Journals/Volume-30_Issue-2/2018_2_11_hamilton_s_eng.pdf>.

HARARI, Y. N. Who will win the race for AI? Foreign Policy, n. 231, p. 52 – 54, 2019.
ISSN 00157228.

HASIK, J. Beyond the third offset: Matching plans for innovation to a theory of victory.
JFQ: Joint Force Quarterly, n. 91, p. 14 – 21, 2018. ISSN 10700692.

HENNIG, J.; SCHWARTZ, P.; BAILEY, K. Mission command on semi-automatic.


Army AL&T Magazine, p. 50 – 55, 2017. ISSN 15298507.
INSTRUCTIONS from the meeting of the supervisory board of the Agency for Strategic
Initiatives. Kremlin Official Website. Disponível em:
<http://kremlin.ru/acts/assignments/orders/59758>.

JON, G. China aims to be a world leader in artificial intelligence. Jane’s Defence Weekly,
n. 39, 2017.
KELLER, J. Air force eyes airborne communications node with artificial intelligence.

18
Military & Aerospace Electronics, v. 29, n. 12, p. 30, 2018. ISSN 10469079a.
KELLER, J. Army wants artificial intelligence technology for cyber and electronic
warfare. Military & Aerospace Electronics, v. 29, n. 6, p. 6 – 7, 2018. ISSN 10469079b.

KELLER, J. DARPA eyes tiny insects as models for artificial intelligence (al) computing.
Military & Aerospace Electronics, v. 30, n. 2, p. 28, 2019. ISSN
10469079a.

KELLER, J. IARPA seeks to apply trusted computing to artificial intelligence and


machine learning models. Military & Aerospace Electronics, v. 30, n. 1, p. 8 – 9, 2019.
ISSN 10469079b.

LEWIS, L. Insights for the Third Offset: Addressing Challenges of Autonomy and
Artificial Intelligence in Military Operations. Center for Naval Analyses, Arlington,
United States, 2017. Disponível em: <https://apps.dtic.mil/dtic/tr/fulltext/u2/
1041043.pdf>.

MAAS, M. M. How viable is international arms control for military artificial


intelligence? three lessons from nuclear weapons. Contemporary Security Policy,
Routledge, v. 0, n. 0, p. 1–27, 2019. Disponível em:
<https://doi.org/10.1080/13523260.2019.1576464>.
MAGNUSON, S. DoD making push to catch up on artificial intelligence. National
Defense, p. 22 – 23, 2017. ISSN 00921491.

MELANIE, R. Us dod releases first artificial intelligence strategy. Jane’s Defence


Weekly, n. 11, 2019.
MEUSER, C. Franken weapons loom on the horizon. U.S. Naval Institute Proceedings, v.
142, n. 7, p. 28 – 33, 2016. ISSN 0041798X.
MICHAEL, F. J.; SHANEMAN, S. The imperative for artificial intelligence.
National Defense, v. 102, n. 777, p. 4, 2018. ISSN 00921491.
PAYNE, K. AI, warbot. New Scientist, v. 239, n. 3195, p. 40 – 43, 2018. ISSN
02624079.

PENTAGON. Pentagon has secret artificial intelligence program to find hidden nuclear
missiles. Military & Aerospace Electronics, v. 29, n. 7, p. 6 – 8, 2018. ISSN
10469079.

POURNELLE, P. E. Trusts autonomous machines. U.S. Naval Institute Proceedings, v.


143, n. 6, p. 38 – 41, 2017. ISSN 0041798X.
PUTIN orders to develop national strategy on AI by summer. TASS Russian New Agency.
Disponível em: <http://tass.com/economy/1046645>.

19
QUARANTA, P. Unmanned capabilities for 2020 and beyond. Military Technology, v. 41,
n. 5, p. 47 – 52, 2017. ISSN 07223226.

RIGHETTI, L. et al. Lethal autonomous weapon systems [ethical, legal, and societal
issues]. IEEE Robotics and Automation Magazine, v. 25, n. 1, p. 123–126, 2018.
ISSN 10709932.

ROFF, H. To ban or regulate autonomous weapons: A US response. Bulletin of the


Atomic Scientists, v. 72, n. 2, p. 122–124, 2016. ISSN 19383282.
RUSSELL, S.; DEWEY, D.; TEGMARK, M. Research priorities for robust and
beneficial artificial intelligence. AI Magazine, v. 36, n. 4, p. 105–114, 2015. ISSN
07384602. Disponível em: <https://futureoflife.org/data/documents/research_ priorities.pdf?
x33606>.

RUSSELL, S.; NORVIG, P. Artificial Intelligence: A Modern Approach. 3rd. ed. Upper
Saddle River, NJ, USA: Prentice Hall Press, 2009. ISBN 0136042597, 9780136042594.
RUSSIA. Russia has ambitions for military robotics. Military & Aerospace Electronics,
v. 28, n. 12, p. 25, 2017. ISSN 10469079.
SANTOS, P. To ban or regulate autonomous weapons: A brazilian response. Bulletin of
the Atomic Scientists, v. 72, n. 2, p. 117–119, 2016. ISSN 19383282.
SAYLER, K. M. Artificial Intelligence and National Security. Congressional
Research Service (CRS), Washington DC, USA, 2019. Disponível em:
<https://crsreports.congress.gov/product/details?prodcode=R45178>a.
SAYLER, K. M. Artificial intelligence and national security. Congressional Research
Service, 2019b.
SWARTE, T. de; BOUFOUS, O.; ESCALLE, P. Artificial intelligence, ethics and
human values: the cases of military drones and companion robots. Artificial Life and
Robotics, 2019. ISSN 16147456. Disponível em:
<https://doi.org/10.1007/s10015-019-00525-1>.

TADDEO, M.; FLORIDI, L. Regulate artificial intelligence to avert cyber arms race.
NATURE, v. 556, n. 7701, p. 296 – 298, 2018. ISSN 00280836. Disponível em:
<https://www.nature.com/articles/d41586-018-04602-6>.

TURCHIN, A.; DENKENBERGER, D. Classification of global catastrophic risks


connected with artificial intelligence. AI & SOCIETY, May 2018. ISSN 1435-5655.
Disponível em: <https://doi.org/10.1007/s00146-018-0845-5>.

UNDERWOOD, S. Potential and peril. Communications of the ACM, ACM, New York,
NY, USA, v. 60, n. 6, p. 17–19, maio 2017. ISSN 0001-0782. Disponível em:
<http://doi.acm.org/10.1145/3077231>.

USA. SUMMARY OF THE 2018 WHITE HOUSE SUMMIT ON ARTIFICIAL

2
0
INTELLIGENCE FOR AMERICAN INDUSTRY. The White House, Washington DC, USA,
2018. Disponível em: <https://www.whitehouse.gov/wp-content/uploads/ 2018/05/Summary-
Report-of-White-House-AI-Summit.pdf>.

USAF. Air force eyes drone swarms, cloud computing, and artificial intelligence (AI).
Military & Aerospace Electronics, v. 29, n. 9, p. 8, 2018. ISSN 10469079.
VARDI, M. Y. On lethal autonomous weapons. Communications of the ACM, ACM, New
York, NY, USA, v. 58, n. 12, p. 5–5, nov. 2015. ISSN 0001-0782. Disponível em:
<http://doi.acm.org/10.1145/2839512>.

WATSON, D. P.; SCHEIDT, D. H. John Hopkins APL Technical Digest. [S.l.: s.n.], 2005.
v. 26. 368-376 p.
ZAAGMAN, E. China’s computing ambitions. Communications of the ACM, v. 61, n. 11,
p. 40 – 41, 2018. ISSN 00010782.

21

Vous aimerez peut-être aussi