Vous êtes sur la page 1sur 5

Adriana Geraldo Jequecene

Adriana Geraldo Jequecene

Resumo
Resumo
Inteligência Artificial
Historial da Inteligência Artificial

Licenciatura em Informática
Licenciatura em Informática

Universidade Pedagógica
Universidade Pedagógica
Maputo
Maputo
2019
2019
Historial da Inteligência Artificial

A Gestão da Inteligência Artificial

O primeiro trabalho reconhecido como IA foi realizado por Warren McCulloch e Walter Pitts. E se
basearam em três fontes de conhecimento: o conhecimento da filosofia básica e da função dos
neurónios; uma análise formal da lógica proposicional criada por Russel e Whitehead e a teoria da
computação de Turing. Estes propuseram o modelo de neurônios em que os neurônios artificiais se
caracteriza por estar ligado ou desligado, o estado de neurônios era considerado “equivalente a uma
proposição que definia o seu estímulo adequado”. McCulloch e Pitts também sugeriram que redes
definidas adequadamente seriam capazes de aprender. Donald Hebb (1949) demostrou uma regra de
actualização simples para modificar a intensidade de conexão entre os neurônios, sua regra agora
chamada de aprendizado de Hebb continua sendo o modelo mais influente. Alan Turing propôs a
ideia de Child Programme explicando: “Em vez de tentar produzir um programa para estimular a mente
adulta, não seria melhor produzir um que estimulasse a mente infantil?”.

O nascimento da Inteligência artificial

McCarthy convenceu Minsky, Claude Shannon e Nathaniel Rochester a ajudalo a reunir cientistas
que estivessem interessados em teoria de autómatos, redes neurais e estudo da inteligência, organizaram
um seminário em Dartmouth, em 1956 com a seguinte proposta: propusemos que um estudo de dois
meses e dois homens sobre a inteligência artificial fosse realizado em Dartmouth College, em Hanover,
New Hampshire. será realizada uma tentativa para descobrir como fazer com que as maquinas usem a
linguagem, a partir da abstracção de conceitos, resolvam os tipos de problema hoje reservados aos seres
humanos e se aperfeiçoem. Newell e Simon tinham um programa de raciocínio, o Logic Theorist (LT)
sobre o qual Simon afirmou: “Criamos um programa de computador capaz de pensar não
numericamente e, resolvemos o antigo dilema mente-corpo”. A IA é único desses campos que
claramente é um ramo da computação e a IA é o único campo a tentar construir máquinas que
funcionarão de forma autónoma em ambientes complexos e mutáveis.

Entusiasmo Inicial, grandes expectativas (1952-1969)

A classe intelectual preferiu acreditar que “Uma maquina nunca poderá realizar X” e os pesquisadores
respondiam demonstrando um X após o outro John McCarthy se referiu ao período como a era do
“Olhe, mamãe, sem as mãos!”. O General Problem Solver (GPS) talvez tenha sido o primeiro programa
a incorporar a abordagem de “pensar de forma humana”, o sucesso de GPS e de programas subsequentes
levou Newell e Simon a formularem a hipótese de Sistema de Símbolos Físicos que afirma que “um
sistema de símbolos físicos tem meios necessários e suficientes para uma acção inteligente geral”, isto é,
qualquer sistema que exiba inteligência deve operar manipulando estruturas de dados compostas por
símbolos. Mccarthy definiu a linguagem de alto nível Lisp, que acabou se tornando a linguagem de
programação dominante em inteligência artificial pelos próximos 30 anos. A aplicação da lógica incluía
os sistemas para responder as perguntas e o sistema de planejamento de Cordell Green e o projecto de
robotia de Shakey no novo Stanford Reseach institute (SRI). O teorema de convergência de Perceotron
determina que o algoritimo de aprendizagem poderia ajustar os pesos da conexão de um percetron para
corresponderem a quaisquer dados de entrada desde que existissem tal correspondência.

Uma dose da realidade (1966-1973)

O primeiro tipo de dificuldade surge porque a maioria de programas obtinham sucesso por meio de
manipulações sintácticas simples. Inicialmente acreditava-se que as transformações sintácticas simples
baseadas nas gramáticas Russas e Inglesas, e a substituição de palavras com a utilização de um
dicionário electrónico, seriam suficientes para preservar os significados exactos de orações. Em 1966,
um relatório criado por um comité consultivo descobriu que “não existe nenhum sistema de tradução
automática para texto científico em geral, e não existe nenhuma perspectiva imediata neste sentido”.
Hoje a tradução automática é uma ferramenta imperfeita usada em documentos técnicos, comerciais e
governamentais da internet.

O segundo tipo de dificuldade foi a impossibilidade de tratar muitos dos problemas que a IA estava a
tentar resolver, a maior parte dos primeiros programas a IA resolvia problemas experimentando
diferentes combinações de passos ate encontrar a solução. Esta estratégia funcionou primeiro porque os
micromundos continham pouquíssimos objectos. O facto de um computador poder encontrar a
solução de um problema em princípio não significa que o programa contenha quaisquer dos
mecanismos necessários para encontra-lo na prática.

Os primeiros experimentos a evolução automática actual algoritmos genéticos se baseava na convicção


sem duvida correcta de que realizando-se uma série apropriada de pequenas equações em um programa
em código de maquina seria possível gerar um programa com bom desempenho em qualquer tarefa
simples. Uma das maiores críticas da IA foi a incapacidade de conviver com a explosão combinatória.
Uma terceira dificuldade surgiu devida algumas limitações fundamentais nas estruturas básicas que
estavam sendo usadas para gerar comportamento inteligente.

Sistemas baseados em conhecimento: a chave para o poder?

O quadro de resolução de problemas que havia surgido durante a primeira década de pesquisas em IA
foi a de um mecanismo de busca de uso geral que procurava reunir passos elementares de raciocínio
para encontrar soluções completas. A alternativa para métodos fracos é usar um conhecimento mais
amplo e especifico que permita passos de raciocínio maiores que podem tratar com mais facilidade casos
que ocorrem em especialidades estritas. O programa DENDRAL desenvolvido em Stanford onde Ed
Feigenbaum, Bruce Buchanan e Joshua Lederberg formaram uma equipe para resolver o problema
de inferir a estrutura molecular a partir de informações obtidas de um electrómetro de massa. O
DENDRAL foi importante porque representou o primeiro sistema bem-sucedido de conhecimento
intensivo: sua habilidade deriva de um grande numero de regras de propósito especifico. Feigenbaum e
outros pesquisadores de Stanford iniciaram Heuristic Programming project (HPP) que investiga ate
que ponto a nova metodologia de sistemas especialistas poderia ser aplicada a outras áreas de
conhecimento humano. Feigenbaum, Buchanan e Dr. Edward Shortliffe desenvolveram o MYCIN
com a finalidade de diagnosticar infecções sanguíneas, este incorporava um cálculo de incerteza
chamado factores de certeza que pareciam se adequar bem a forma como os médicos avaliam o
impacto das evidências do diagnóstico. O enorme crescimento das aplicações para a resolução de
problemas reais causou um aumento simultâneo na demanda por esquemas utilizáveis de representação
de conhecimento. Linguagens de representação e raciocínio, algumas baseadas na logica como o prolog
e a PLANNER foram desenvolvidas.

A IA se torna uma Industria (de 1980 ate a actualidade)

A indústria da Inteligência Artificial se expandiu de alguns milhões de dólares em 1980 para bilhões de
dólares em 1988, incluindo centenas de empresas construindo sistemas especialistas, sistemas de visão,
robôs, softwares e Hardwares especializados para estes propósitos. De seguida vem um período
designado “Inverno de IA” em quem muitas empresas caíram no esquecimento a medida que deixavam
de cumprir promessas extravagantes.

O retorno das redes neurais (de 1986 ate a actualidade)

A retroprogramação, um algoritmo descoberto por Bryson e Ho. Foi aplicado a muitos problemas de
aprendizado em ciência de computação e psicologia é uma reinvenção do algoritmo de aprendizado.Os
modelos conexionistas para sistemas inteligentes eram vistos por alguns como concorrentes directos
dos modelos simbólicos. Pode parecer obvio que, em certo nível os seres humanos manipulam símbolos,
mas os conexionistas mais fervorosos questionavam se a manipulação de símbolos tinham qualquer
função explicativa real em modelos detalhados de cognição. A visão actual é de que a visão
conexisonista e simbólica são complementares e não concorrentes. Como ocorreu com a separação de
IA e da ciência cognitiva, a pesquisa moderna de rede neural se dividiu em dois campos um preocupado
com a criação de algoritmos e arquitecturas de rede eficazes e a compressão de suas propriedades
matemáticas e outro preocupado com a modelagem das propriedades empíricas de neurónios reais e
conjuntos de neurônios.
A IA se torna uma ciência (de 1987 ate os dias actuais)

Actualmente é mais comum usar as teorias existentes como base, ao invés de propor teorias inteiramente
novas. A inteligência Artificial surgiu como uma rebelião contra as limitações de áreas existentes como
a teoria de controle e estatística. A tradução automática segue o mesmo curso que o reconhecimento de
voz, as redes neurais também segue esta tendência. Utilizando metodologias aperfeiçoadas e estruturas
teóricas o campo chegou a uma compressão tal que, as redes neurais actualmente podem ser comparadas
a técnicas correspondentes. Uma compreensão melhor dos problemas e das suas complexidades,
combina a maior sofisticação matemática resultando em métodos de pesquisas utilizáveis e robustos.

O surgimento de agentes inteligentes (de 1955 ate a actualidade)

Um dos ambientes mais importantes para os agentes inteligentes é a internet. Os sistemas em IA se


tornaram tao comuns em aplicações Web que o sufixo “bot” passou a fazer parte da linguagem
cotidiana, alem disso as tecnologias de IA servem de base a muitas ferramentas da internet, como
mecanismos de pesquisas, sistemas de recomendação e agregados de conteúdo de construção de sites.
Uma consequência de tentar construir agentes completos é a constatação de que os subcampos
previamente isolados da IA podem necessitar ser reorganizados quando tiver que unir os resultados. E a
segunda consequência pela perspectiva do agente é que a IA foi estabelecida em contacto muito mais
próximo com outros campos como a teoria de controle e a economia. Acredita-se que a IA deveria
retornar as suas raízes esforçando-se para obter, nas palavras de Simon, “maquinas que pensam,
aprendem e que criam”, chamando este esforço de IA de nível Humano ou HLAI e uma ideia
relacionada é a Inteligência Geral Artificial ou a IAG. A IAG procura por um algoritmo universal
para apreender e actuar em qualquer ambiente, garantindo a criação de uma IA amigável.

Disponibilidade de conjunto de dados muito grandes (2001 ate a actualidade)

Estudos recentes da IA sugerem que para muitos problemas, faz mais sentido se preocupar com os dados
e ser menos exigente sobre qual algoritmo aplicar. Os observadores da IA notaram o surgimento de
novas aplicações e escreveram que “o Inverno da IA” pode estar produzindo uma nova primavera
(Haveneistein, 2005). O “gargalo do conhecimento” na IA – problema de como expressar todo o
conhecimento que um sistema necessita, pode ser resolvido em muitas aplicações por métodos de
aprendizagem, ao invés da engenharia do conhecimento codificada a mão, desde que estes algoritmos
tenham dados suficientes para prosseguir.