Download PDF
ads:
PONTIFÍCIA UNIVERSIDADE CATÓLICA
DE SÃO PAULO
PUC-SP
Eduardo Kiochi Nakamiti
Agentes inteligentes artificiais
MESTRADO EM COMUNICAÇÃO E SEMIÓTICA
SÃO PAULO
2009
ads:
Livros Grátis
http://www.livrosgratis.com.br
Milhares de livros grátis para download.
PONTIFÍCIA UNIVERSIDADE CATÓLICA
DE SÃO PAULO
PUC-SP
Eduardo Kiochi Nakamiti
Agentes inteligentes artificiais
MESTRADO EM COMUNICAÇÃO E SEMIÓTICA
Dissertação apresentada à Banca Examinadora da
Pontifícia Universidade Católica de São Paulo, como
exigência parcial para obtenção do título de MESTRE em
Semiótica sob orientação do Prof. Doutor Rogério da Costa
Santos.
SÃO PAULO
2009
ads:
Banca Examinadora
_________________________________
_________________________________
_________________________________
A minha família, as mulheres da
minha vida (elas sabem quem são) e
aos grandes e poucos amigos (eles
também sabem quem são)
RESUMO
A explosão dos Agentes Inteligentes Artificiais, considerados superficialmente como
elementos que apresentam raciocínio autônomo e cujas decisões influem processos, é
uma realidade cada vez mais sentida no cotidiano dos seres humanos , principalmente
nos meios de comunicação eletrônicos, entre usuários de serviços bancários, em acessos
a serviços telefônicos, nos eletrodomésticos e em nossos entretenimentos.
Sua presença é sentida às vezes pela facilidade de acesso a recursos muitas vezes de
forma poderosa ou outras vezes de forma discreta. Também pode ser sentida de forma
negativa, quando ocorre o bloqueio de uma operação bancária eletrônica sem
explicação.
Muito do aprendizado, hoje em dia, passa pela internet, e buscar informação na rede
sem a ajuda de mecanismos de busca é desconcertante. Hoje em dia esses mecanismos
nos oferecem mais do que simplesmente o resultado de uma procura. Eles parecem ter
inteligência própria ao nos oferecer sugestões relacionadas ao nosso interesse. Esta
forma de comunicação está se incorporando aos costumes e é fortemente influenciada
pelos denominados agentes, contidos nos sistemas.
Nesse trabalho, é feito um histórico do seu aparecimento e das inovações tecnológicas e
culturais introduzidas, focalizando, primariamente, os primórdios da Inteligência
Artificial para que seja construída uma visão clara e detalhada dos agentes inteligentes
artificiais até o momento presente, a fim de que seja possível estabelecer uma trajetória
hipotética de evolução futura.
O referencial teórico do trabalho apóia-se na complexidade do tema abordado.
Complexidade que evoca ferramentas e olhares distintos, dinâmicos e interatuantes,
apontando para a computação e seus vários aspectos, a inteligência artificial e suas
ferramentas; a cibernética como primeira arena de interdisciplinaridade e, atingindo a
semiótica como ambiente e ferramenta de análise do processo de produção e mediação
do conhecimento e as teorias da complexidade.
O corpus da análise e interpretação restringe-se ao fenômeno dos Agentes Inteligentes
Artificiais desde sua origem, a partir da inspeção de vários campos de conhecimento,
necessários à compreensão do tema abordado.
O trabalho levanta a hipótese da tendência marcante de pulverização e invisibilidade
crescentes dos Agentes Inteligentes Artificiais, como elementos de apoio na tomada de
decisão e controle da informação recebida
PALAVRAS–CHAVES
Agentes inteligentes artificiais, Inteligência Artificial, Robótica, Software,
Computadores, Cibernética, Internet
ABSTRACT
The diffusion of Artificial Intelligent Agents, superficially considered as elements that
have independent thinking and whose decisions influence processes in the everyday
human reality increasingly known, especially in electronic media, the users of banking
services, on access to telephone service in our home appliances and entertainment.
Its presence is sometimes felt by the ease of access to resources often so powerful and
sometimes so unnoticed. It can be perceived in a negative way, when access to
electronic banking services is denied without explanation.
Much of learning today, relies on Internet and getting information online without the
help of search engines is disappointing. Today, these mechanisms offer more than
simply the result of a search. They seem to have the intelligence to offer suggestions in
relation to our interest. This form of communication that are incorporating to their
customs, is strongly influenced by known agents, in computer systems.
In this work, we will make a history of its appearance, and technological innovations
and cultural, primarily focusing on the first Artificial Intelligence in order to built a
clear, detailed view of the Artificial Intelligent Agents, at present, and to establish a
hypothetical path for future developments.
The methodological basis of work is based on the complexity of the issue addressed.
Such complexity refers to tools and distinct views, dynamic and interactive, pointing to
the computer and its various aspects, the artificial intelligence and its tools, the cyber
arena of interdisciplinarity as the first and, to the environment and the semiotic analysis
tool of the production and mediation of knowledge and theories of complexity.
The corpus of the analysis and interpretation are circumscribed to the phenomenon of
Artificial Intelligent Agents of nowadays and of the future, but for both, and according
to the methodology adopted, the fields of knowledge are inspected more in the
expectation of higher fidelity description.
The main conclusion is the remarkable trend of spraying and increasing invisibility of
Artificial Intelligent Agents, as elements of support in decision making and control of
the environment and the information we received.
KEYWORDS
Artificial Intelligent Agents, Artificial Intelligence, Robotics, Software, Computers,
Cybernetics, Internet
SUMÁRIO
1 INTRODUÇÃO ..............................................................................................
1
2 HISTÓRICO DE DESENVOLVIMENTO: PASSOS E VÔOS .....................
2
2.1 Prelúdio ...........................................................................................................
2
2.2 Inteligência Artificial, o Início de Tudo ..........................................................
7
2.3 Após o Batismo da Inteligência Artificial .......................................................
18
3 AGENTES INTELIGENTES ARTIFICIAIS, O QUE SÃO? ........................
35
3.1 As Tentativas de se Compreender o Fenômeno ..............................................
35
3.2 Tentando Observar o Fenômeno .....................................................................
43
3.2.1
Elementos de uma Comunidade Virtual ..........................................................
44
3.2.2
Tipos de Comunidades Virtuais ......................................................................
46
3.3 Expressão na Comunidade Virtual ..................................................................
48
4 O FUTURO: O HOMEM E A MÁQUINA OU O HOMEMÁQUINA? .......
53
4.1 Auscultando a Evolução Tecnológica .............................................................
55
4.2 Pacotes de Informação ....................................................................................
58
4.3 Infodutos ..........................................................................................................
61
4.4 Servo Mecânico ...............................................................................................
63
4.5 Engenharia do Minúsculo ................................................................................
63
4.6 Tecnologias de amanhã hoje ...........................................................................
66
4.7 E o Software? .................................................................................................
68
4.8 Os Homens ......................................................................................................
68
5 CONCLUSÕES ...............................................................................................
74
BIBLIOGRAFIA .............................................................................................
77
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
1/84
PUC-SP – 2009
1 INTRODUÇÃO
A presente dissertação trata dos Agentes Inteligentes Artificiais. Considerados
elementos de raciocínio autônomo, cujas decisões influem processos no cotidiano dos seres
humanos e cada vez mais presentes - e por outro lado - mais invisíveis.
Sua presença é sentida às vezes pela facilidade de acesso a recursos muitas vezes
de forma poderosa ou outras vezes de forma discreta. Também pode ser sentida de forma
negativa, quando ocorre o bloqueio de uma operação bancária eletrônica sem explicação.
Muito do aprendizado, hoje em dia, passa pela internet, e buscar informação na
rede sem a ajuda de mecanismos de busca é desconcertante. Hoje em dia esses mecanismos
nos oferecem mais do que simplesmente o resultado de uma procura. Eles parecem ter
inteligência própria ao nos oferecer sugestões relacionadas ao nosso interesse. Esta forma
de comunicação, que esta geração presencia, está se incorporando aos costumes e é
fortemente influenciada pelos denominados agentes, contidos nos sistemas. Os avanços
recentes apontam para um papel de crescente destaque.
O presente trabalho está dividido em três partes principais:
O Capítulo 2, Histórico de desenvolvimento: Passos e vôos, trata de sua
evolução a partir de uma perspectiva histórica dos avanços precedentes, envolvendo a
própria capacidade humana de comunicação, a informática, a lógica, a robótica, a
tecnologia de transmissão de dados.
O Capítulo 3, Agentes Inteligentes Artificiais, o que são? aborda o conceito de
agente inteligente artificial no atual estágio de compreensão do que é a inteligência
artificial e do modo como eles são implementados em software e hardware.
O Capítulo 4, Futuro: O homem e a máquina ou o homemáquina? é um
exercício argumentativo de precognição, a partir das linhas de pesquisa e das próprias
teorias de como e em que velocidade os avanços tecnológicos vão ocorrer nas próximas
décadas, buscando-se antever a conformação e destino dos agentes inteligentes artificiais
nesse período.
Finalizando o trabalho, suas conclusões encontram-se no Capítulo 5.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
2/84
PUC-SP – 2009
2 HISTÓRICO DE DESENVOLVIMENTO: PASSOS E VÔOS
2.1 Prelúdio
Para tratarmos do presente e do futuro dos Agentes Inteligentes Artificiais, vamos
tratar de seu histórico, que se confunde com o desenvolvimento de diversos ramos do
conhecimento humano, tais como informática, robótica, lógica e linguagem, dentre outros.
Um recorte histórico exato do conhecimento necessário, que enquadre uma perspectiva
adequada, é extremamente difícil nessas condições. Por outro lado, uma excessiva
ampliação pode facilmente ocasionar a perda de foco no tema.
Optamos por delimitar este assunto ao relato dos principais fatos, tentando
ordená-los numa linha de tempo, e personagens que se envolveram, de uma forma ou de
outra, no desenvolvimento da Inteligência Artificial.
Apesar de a história remontar a 3.000 anos A.C., no Egito, e ocorrerem
colaborações importantes dos gregos Platão e Aristóteles, a maior atenção recairá nos
relatos do século XX, detalhando um pouco mais a partir da Segunda Guerra Mundial.
A idéia de construir máquinas com inteligência não é nova. Desde a antiguidade o
homem mostrou o desejo de conceber dispositivos, em vários materiais tais como metal,
madeira ou marfim, dotados de movimento e inteligência. A construção de “máquinas”
para auxílio do homem nas suas atividades surge pela primeira vez em Homero, na Ilíada
(canto XVIII), onde eram descritas as trípodes, criadas por Hephaistos, deus do fogo, que:
“Tinham nos seus pés umas rodinhas de ouro, sobre as quais, por si
mesmo, e por seu alvítrio, podiam girar na sala (...) mui bem
mandadas” e as “servas da casa (...) artefatos, e todas de ouro, e
muito semelhantes às raparigas que vivem realmente (...) que
aprenderam com os deuses o que é preciso e o fazem com
perfeição”. [75]
Em 1651, Thomas HOBBES publica o Levianthan, onde é sugerido que os seres
humanos através de suas organizações ou máquinas, poderão criar uma nova inteligência.
Blaise PASCAL, em 1654 efetua trabalhos sobre cálculo probabilístico com a Pascaline
uma máquina mecânica de calcular que ele mesmo inventou em 1642, então com 19 anos.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
3/84
PUC-SP – 2009
Povos antigos como gregos e judeus construíam estátuas dotadas de
movimento. Em 1732, em uma enciclopédia alemã encontrava-se a definição para
autômato:
“São instrumentos mecânicos preparados de modo tão sutil e
engenhoso, segundo as artes da geometria, que se movem e andam
sem a ajuda de força externa”.[75]
Na primeira metade do século XVIII o inventor francês Jacques de
VAUNCANSON ficou famoso com os autômatos construídos por ele, os quais eram
exibidos ao público como o "Tocador de Flauta de Vaucanson" que funcionava graças a
um dispositivo pneumático e mecânico, que tocava trechos musicais diferentes e seu pato,
um animal artificial fabricado em cobre, tinha mais de 400 peças articuladas em apenas
uma asa. Assim, o pato de Vaucanson imitava todos os movimentos de um pato natural,
inclusive, comendo e bebendo água e encantou os visitantes da exposição de Paris, em
1738.
Também merece destaque um boneco, criado pelo suíço Jacques BROZ, que
pegava uma pena, molhava-a no tinteiro e escrevia uma frase inteira, simulando a
habilidade humana.
Fazem parte também desse conjunto crescente de criadores de autômatos, Joseph
FABER e Thomas EDISON, o inventor norte-americano, pai da lâmpada elétrica
incandescente. As criaturas mecânicas de Faber faziam perguntas e ofereciam as respostas.
As bonecas falantes de Edison encantaram adultos mais que crianças.
Um "homem-vapor", desenvolvido em 1893 por George MOORE, caminhava
com o dobro da velocidade de um humano: 14 quilômetros por hora.
No século 17, um oficial conhecido por De GENNES construiu um pavão que
tanto caminhava, como o homem de Moore, como ingeria alimentos, caso do pato de
Vaucanson.
A palavra “robô” tem sua origem no termo “robota” da língua tcheca que significa
“escravo, trabalhador compulsório” e figurou no título de uma peça daquele país em 1921,
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
4/84
PUC-SP – 2009
“R.U.R.” (Rossum Universal Robota). Nela, o autor idealizava uma fábrica que produzisse
andróides “robotas”, máquinas que fizessem várias atividades para servirem ao homem.
Anos depois, o escritor de ficção científica Isaac ASIMOV, talvez o autor que
mais utilizou robôs em seus trabalhos, lançou o conto “Runaround”, em 1942, em que
apresentou um novo termo “Robótica”, o qual ficou sendo mais que uma nova palavra, mas
sim um conceito de inteligência associada às máquinas.
Este conceito inspirou não as ciências ligadas à tecnologia, mas todo o mundo
que, passou a pensar mais efetivamente nessas máquinas.
Em outra vertente, retornemos Antigo Egito. Nele, a arte de construir autômatos
pode parecer, à primeira vista, o elo mais forte de ligação com os agentes inteligentes
artificiais. Eles deverão ser melhor definidos e estudados a partir de nossa visão moderna.
Mas é necessário e importante flexibilizar não apenas o conhecimento histórico factual,
mas sua própria compreensão, para captar-se o “espírito da época”, integrando cada
elemento no conjunto das idéias, fatos e instituições da época, buscando-se um sentido de
relatividade, mediante a compreensão de que cada época tem suas circunstâncias próprias e
suas características ideológicas, culturais, e outras, não julgando à luz das críticas de hoje.
Assim é que é a própria criação da escrita pode ser considerada um elemento de
ligação em termos da tecnologia, de impacto intelectual, social e mesmo ideológico,
envolvidos com os agentes inteligentes. Afirmação essa que parece estranha em nossos
dias. Mas, afinal, o que foi a escrita em seus primórdios?
A escrita no Egito e em diversos outros povos antigos era tida como um elemento
sagrado. Se talvez pelo poder que conferia a quem a detinha, por isso confinada às classes
sacerdotais e nobres, a própria observação desse poder maravilhava os antigos: Fixar o
conhecimento e as informações no tempo para posterior consulta, para si ou demais
pessoas, para toda a posteridade e para os próprios deuses.
A escrita maravilhava os antigos, conferindo a ela capacidades divinas. O Livro
dos Mortos Egípcio, por exemplo, além de um manual que os nobres falecidos deveriam
possuir para guiá-los nas provações do pós-morte, até sua chegada na “Terra dos Juncos”,
uma espécie de paraíso egípcio, era ele mesmo animado de poderes. Não apenas era um
texto sagrado e importante. Era um texto escrito. Isso significava muito. E as palavras
escritas tinham poder justamente porque espelhavam a realidade. Não é à toa que os
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
5/84
PUC-SP – 2009
hieróglifos, que representavam os demônios ou maus espíritos que o falecido deveria
enfrentar, eram riscados como que aleijados para que eles não pudessem atacar o
falecido. [84]
O texto escrito, em sua essência, era visto como uma realidade própria e ativa,
fixada sobre o papiro.
Os antigos hebreus, talvez herdando essa visão dos egípcios em seu longo contato,
tinham a crença de que a Tora fora escrita em letras de fogo, duzentos anos antes de toda a
Criação, Esta, portanto, seria a matriz perfeita, na forma da palavra escrita, da qual a
realidade cotidiana seria uma verdadeira “realidade virtual” e não o contrário. [86]. E por
muito tempo não se jogava ao lixo nenhuma palavra escrita, sempre guardando em potes,
considerada sua sacralidade inerente à sua fixação na forma escrita.
Mesmo os romanos, povo prático e belicoso, tinham em suas origens essa
percepção da palavra escrita. A Lei das Doze Tábuas, primeiro código de leis romanas
realizada no séc. V A.C., foi a inscrição pública das antigas leis secretas dos patrícios.
“Codex” etmologicamente significa entalhar em pedra, ou seja deixar claro e indelével
para todos. Na verdade, ela foi escrita sobre tábuas de madeira, mas o caráter publicizante
das regras de convivência social, inscritas dessa forma e de uma vez por todas, foram
lembradas e respeitadas por mais de mil anos, nunca sendo considerada como lei
derrogada, ainda que a mudança dos costumes e o emprego de leis posteriores, na prática,
poderiam te-la relegado ao completo esquecimento.
Essa intermediação, se é assim que se pode chamar, entre escrita e realidade, e sua
ação criativa, criadora e dinâmica, até mesmo interativa, mais que um simples meio de
fixar o conhecimento, ou por outro, não apenas mágico ou sacro, aproximava-se, em suas
origens, dos agentes inteligentes e autônomos, ainda que hoje, o olhar sobre a tecnologia
disponível e a banalização dos elementos culturais arcaicos nos diga o contrário.
A partir de especulações sobre a inteligência e as realizações tecnológicas desde
as civilizações antigas, passando pelos mulçumanos e medievais ocidentais, podemos
observar os períodos mais próximos.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
6/84
PUC-SP – 2009
1763 É publicado postumamente um livro de Thomas BAYES sobre a teoria do
raciocínio sobre probabilidades condicionadas.
1815 - Nasce ADA BYRON KING, única filha legítima do poeta inglês Lord
Byron. Matemática, foi a primeira programadora da história dos computadores,
desenvolvendo algoritmos e procedimentos computacionais um século antes da criação dos
primeiros computadores modernos.
1832 - Charles BABBAGE projeta o primeiro computador mecânico programável.
1847 - George BOOLE, desenvolve a Lógica Simbólica que ficou conhecida por
Álgebra de BOOLE ou booleana.
1858 Charles DARWIN e Alfred WALLACE expõem a teoria da evolução das
espécies, com base na seleção natural.
1890 – Herman HOLLERITH patenteia uma máquina que processa dados de
censos armazenados em cartões perfurados. Este fato deu origem a IBM mais tarde.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
7/84
PUC-SP – 2009
2.2 Inteligência Artificial, o Início de Tudo
A primeira aproximação do termo veio do cientista inglês Alan Mathison
TURING, em 1950 com seu clássico artigo Computing Machinery and Intelligence [101]
onde associou o processo do pensamento humano com o processo computacional e que
previa: a teoria dos jogos, tomadas de decisões, compreensão de linguagem natural,
tradução, comprovação de teoremas, encriptação e quebra de códigos.
Aliás, foi TURING em 1937, que concebeu a Máquina Universal de Turing, e de
modo independente de Alonzo CHURCH, propõem que todos os problemas que um ser
humano resolve, podem ser reduzidos a um conjunto de algoritmos. Outra lembrança de
TURING é que juntamente com seu amigo David CHAMPERNOWNE, escreveu o
primeiro programa de jogo se xadrez.
Tudo isto teve origem durante a segunda guerra mundial quando HITLER e os
nazistas já tinham ocupado a maior parte da Europa. Eles tinham desenvolvido o ENIGMA
um codificador de mensagens de altíssima complexidade que permitia as trocas de
informações importantes sem que caíssem nas mãos dos aliados.
Em 1940, o governo britânico reuniu seus melhores cientistas sob a liderança de
TURING para quebrar o código militar alemão em BLETCHLEY PARK. ele trabalhou
com o primeiro computador que utilizou relés eletromagnéticos aplicando álgebra
BOOLEANA, o ROBINSON, idealizado por Claude Elwood SHANNON do Laboratório
Bell nos Estados Unidos.
A notória superioridade da força aérea alemã, aliada ao seu encriptador estava
tornando os alemães invencíveis; era, portanto, de extrema importância que o grupo de
TURING não falhasse. E o projeto ROBINSON, funcionou e decodificou as mensagens do
ENIGMA de primeira geração.
Os nazistas então desenvolveram uma nova geração mais complexa de
codificador, e o grupo britânico de computação ULTRA, construiu então o COLOSSUS,
com duas mil válvulas de rádio, que veio a substituir o ROBINSON, e conseguiram
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
8/84
PUC-SP – 2009
decifrar as codificações do ENIGMA de segunda geração, de modo a permitir que a Real
Força Aérea vencesse a Batalha da Grã-Bretanha.
Essa experiência como criador de computadores e em estudos de processos de
pensamento humano e computacional, levou TURING em 1950 a propor o seu famoso
teste, onde uma máquina seria considerada inteligente se um juiz analisando respostas de
uma máquina e a de humanos, não distinguisse a máquina dos humanos.
Essa proposta ficou conhecida como “Teste de Turing” e é extremamente
difundido como meio de classificar a inteligência de uma máquina.
Uma área de desenvolvimento do Teste de Turing é a implementação de softwares
de interface com humanos. Várias competições têm sido organizadas com o objetivo de
aplicar o teste.
Desde o começo do seu uso a inteligência artificial, esteve relacionada com
comunicação, para desvendar os signos e os significados de uma mensagem, e interferindo
na comunicação. Neste caso a interferência na Comunicação acarretaria sérias
conseqüências para a humanidade. Talvez, o nosso mundo atual tivesse outra face sem
esses estudos.
Para resolver problemas, o homem usa as principais funções associadas à
inteligência humana tais como, raciocínio, aprendizagem e auto-aperfeiçoamento e, sendo
assim, pode-se afirmar que o conceito de Inteligência Artificial é bem mais amplo que uma
técnica e sim, que é composto de várias técnicas para resolução de problemas [6].
O conceito é, pois, bem abrangente e complexo visto que, trata-se da definição de
uma inteligência que não está associada às condições cognitivas do ser humano, mas, em
síntese, é constituído por um conjunto de técnicas de programação para resolver certos
tipos de problemas em informática, através de programas, essencialmente algoritmos, que
comandam os computadores, procurando imitar a forma de resolução de problemas de
modo semelhante à que o ser humano usa [1].
Historicamente, alguns pesquisadores dividem as investigações de inteligência
artificial em duas vertentes, que foram chamadas de IA neats”, limpa, clássica ou
simbólica, que envolve a manipulação de símbolos e de conceitos abstratos, e de IA
scruffies”, conexionista também conhecida como a Escola das Redes Neurais Artificiais.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
9/84
PUC-SP – 2009
Com relação a esta última, duas linhas de pesquisa corriam paralelas, uma
biológica, interessada no funcionamento do cérebro humano e seus neurônios e outra, no
estudo da cognição, no raciocínio e em como representar o comportamento dos neurônios
humanos no computador, uma vez que é essa célula que realiza todo o processamento das
informações no corpo humano e toma decisões a partir de aprendizado anterior.
A proposta que, pelo menos em princípio, uniu precocemente as duas linhas, foi o
desenvolvimento das Redes Neurais Artificiais (RNAs).
Sua origem histórica remonta a 1943, com o desenvolvimento do Modelo Neural
Artificial de Warren MCCULLOCK, mestre em psicologia pela Universidade de
COLUMBIA e pós-graduado em filosofia e neurofisiologia pela Universidade de YALE,
que juntamente com Walter PITTS um gênio em Estatística que na época com 17 anos foi
co-autor da obra A Logical Calculus of Ideas Immanent in Neural Nets [68], pela
Universidade de ILLINOIS. Eles sugeriram que qualquer instrução informatizada poderia
ser executada através de uma rede de neurônios interligados, e argumentaram que tal rede
estruturada seria capaz de aprender.
A inspiração para as redes neurais artificiais são as redes neurais biológicas de
nosso próprio cérebro. O cérebro humano possui cerca de 10 bilhões de neurônios, células
mais diferenciadas do organismo, pois apresentam estrutura e funcionamento mais
complexos. Um neurônio é dividido basicamente em três partes: corpo celular, dendritos e
axônio. A conexão entre os neurônios é feita de forma que o dentrito recebe um impulso
elétrico, processa e transmite ao próximo neurônio, através do axônio, que é ligado aos
dendritos do neurônio seguinte quando excitados acima de seu limiar (Figura 1).
Figura 1 - Neurônio biológico.
Fonte: http://www.labinfo.lncc.br
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
10/84
PUC-SP – 2009
Considerando que cada conexão responde como um “simou um “não” e que
cada neurônio é capaz de criar até 10.000 sinapses, que são o contato entre dois neurônios
com neurônios adjacentes, ocorrerá um número máximo de respostas sim/não que o
cérebro pode conter, ou seja, 10
10
x 10
4
= 10
14
ou 100 trilhões de trilhões de conexões
formando, deste modo, uma enorme e complexa rede neural biológica de armazenamento e
processamento de informações.
Redes Neurais Artificiais são sistemas paralelos distribuídos, compostos por
unidades de processamento simples, os denominados neurônios artificiais, que calculam
determinadas funções matemáticas, dispostas em uma ou mais camadas interligadas por
um grande número de conexões associadas a pesos, os quais armazenam o conhecimento
adquirido pelo modelo que servem (Figura 2).
Figura 2. Exemplo de arquitetura de uma RNA.
Fonte: http://www.dei.unicap.br
O procedimento usual na solução de problemas passa pela fase de aprendizagem,
em que um conjunto de exemplos é apresentado para a rede, a qual extrai as características
necessárias da informação fornecida e utilizam posteriormente para gerar respostas para o
problema real.
Deste modo, para que uma Rede Neural Artificial possa fornecer resultados
convenientes, é necessário que passe por uma fase de treinamento, onde os pesos
sinápticos são ajustados de forma que ela se adapte aos diferentes estímulos de entrada.
Durante esta fase de treinamento, ocorre o seu aprendizado.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
11/84
PUC-SP – 2009
vários processos de aprendizado, os quais, de forma geral podem ser
classificados em:
Aprendizado Supervisionado: É fornecida uma referência do objetivo a ser
alcançado. Um exemplo de processo de Aprendizado Supervisionado é o
Aprendizado por Correção de Erro.
Aprendizado Não-Supervisionado: Neste caso não é fornecida nenhuma
referência externa. Podemos citar como exemplo o processo de Aprendizado
Competitivo
.
O principal atrativo das RNAs como ferramenta computacional é a capacidade de
aprender por meio de exemplos e generalizar a informação aprendida, ou seja, aprender
com dados conhecidos, para apresentar respostas para dados desconhecidos. Mais
precisamente, as RNAs possuem algumas características que as tornam satisfatoriamente
aplicáveis a problemas não adequados à computação tradicional:
I. Generalização: Podem aprender através de conjuntos de exemplos e apresentar
respostas coerentes para entradas não vistas durante o treinamento;
II. Adaptabilidade: Podem adaptar-se ao seu novo ambiente através de alterações em
seus pesos sinápticos, no caso de operarem em outro ambiente. Também podem ser
projetadas para alterarem seus pesos em tempo real ou para operarem em ambientes
que variem com o tempo;
III. Informação Contextual: Processam as informações contextuais de forma natural,
uma vez que o processamento de um neurônio é afetado pelo processamento de
outros neurônios da rede;
IV. Uniformidade: A mesma notação é utilizada em diferentes domínios de
aplicações; os neurônios são encontrados em todas as redes neurais.[75].
Paralelamente aos avanços da I.A e da Ciência da Computação, a Lógica, como
ferramenta de análise e decisão também sofreu um grande avanço.
Do prisma lingüístico, uma lógica, ou sistema lógico, é uma classe de técnicas que
permite derivar novas proposições de conjuntos dados de proposições. Por meio de uma
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
12/84
PUC-SP – 2009
lógica, pode-se efetuar inferências e construir teorias. Com o auxílio da lógica, obtêm-se
conclusões de dadas premissas e, ademais, pode-se deduzir conseqüências dos princípios
básicos que definem uma ciência.
Antes de 1930, a Lógica tem como ponto culminante a obra de Whitehead e B.
Russell intitulada “Principia Mathematica”, em três volumes publicados respectivamente
em 1910, 1912 e 1913. Esse livro engloba trabalhos de gicos como Peano e Frege, bem
como os estudos de Cantor sobre a teoria dos conjuntos. Muitos lógicos, matemáticos e
filósofos contribuíram para transformar a lógica numa ciência nova: Carnap, Wiener,
Herbrand e, sobretudo, a escola de Hilbert.
Ainda nessa primeira parte do período contemporâneo, Lewis codificou a lógica
modal moderna e o matemático holandês Brouwer construiu, com seus discípulos, em
particular Heyting, uma lógica heterodoxa, alternativa à clássica. Muito importante foi
também a contribuição da escola polonesa, que concorreu para tornar a lógica uma das
mais importantes ciências do nosso tempo; o lógico polonês Jukasiewicz formulou os
primeiros sistemas lógicos polivalentes, independentemente do que se havia obtido na
Idade Média.
A evolução da lógica a partir de 1930 foi notável: Gödel publicou seus teoremas
de incompleteza; Turing formulou a teoria geral dos processos computáveis; a teoria da
recursão foi desenvolvida por Church, Kleene, Rosser e outros. Tarski, Robinson e outros
criaram a teoria de modelos; Gödel e Cohen introduziram as técnicas dos modelos
construtivos e dos modelos booleanos, provando-se a independência do axioma da escolha
com relação aos outros axiomas da teoria de conjuntos, elaborando-se matemáticas não
cantorianas e outras. Apareceram numerosas lógicas não clássicas e a lógica algébrica
progrediu muito. Nessa etapa de sua evolução, a lógica integrou-se como uma das partes
relevantes da matemática.
Hoje, são concebidas infinitas lógicas possíveis, tais como a gica clássica, a
lógica intuicionista, a lógica modal clássica, a lógica modal polivalente, a lógica clássica
categorial, a lógica difusa, a lógica paraconsistente e outras.
As várias lógicas, são, porém, divididas em clássica ou tradicional e não-clássicas.
Estas subdividem-se em complementares da clássica e heterodoxas ou rivais da clássica.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
13/84
PUC-SP – 2009
É importante, nesse ponto, a apresentação de uma rápida idéia do que essas
divisões compreendem, para poderem ser oportunamente revisitadas.
Pode-se caracterizar a lógica clássica por seu núcleo, que é o cálculo de
predicados clássico de primeira ordem, com ou sem igualdade, o qual possui uma
linguagem essencialmente bem definida e uma semântica-padrão, implicando domínios de
objetos com certos elementos distinguidos mais operações e relações entrelaçando tais
objetos. Esse núcleo estende-se às teorias de conjuntos e às lógicas de ordem superior, com
a teorias de tipos.
A seguir, são apresentados quatro dos princípios básicos da lógica clássica,
também chamada tradicional:
I. Princípio da identidade: x = x, ou seja, todo objeto é idêntico a si mesmo.
II. Princípio do terceiro excluído: p ¬p, ou seja, de duas proposições
contraditórias, isto é, tais que uma é a negação da outra, uma delas é verdadeira.
III. Princípio da contradição (ou da não contradição): ¬(p ¬p), isto é, entre duas
proposições contraditórias, uma é falsa.
IV. Princípio da identidade proposicional: p p, que pode ser interpretado como
“sendo verdadeiro, sempre verdadeiro; sendo falso, sempre falso”.
Todavia, além da lógica clássica, existem as lógicas não clássicas, como
mencionado anteriormente.
A lógica tradicional pode se tornar mais ampla por várias maneiras. Por exemplo,
torna-se possível transformá-la em uma lógica modal pela adoção de operadores
apropriados, os quais incorporam as noções de necessidade, possibilidade, impossibilidade
e contingência. Essa transformação pode ocorrer de várias maneiras, introduzindo-se os
operadores modais e recorrendo-se a postulados convenientes. Assim, podem ser
desenvolvidas infinitas lógicas modais padrão. Outra possibilidade importante é a
utilização de operadores temporais, definido-se as lógicas temporais.
Pela adoção de outros operadores, pode-se construir lógicas da crença, do
conhecimento, da verificação e várias outras, que constituem as lógicas complementares da
clássica, pois simplesmente enriquecem a linguagem e os objetivos dessa.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
14/84
PUC-SP – 2009
Entretanto, lógicas que modificam ou restringem os princípios da lógica
clássica, designadas por lógicas heterodoxas ou rivais da clássica.
Das inúmeras, salientam-se as lógicas paracompletas, que derrogam o princípio do
terceiro excluído. Exemplos dessas lógicas são a lógica intuicionista de Brouwer-Heyting e
várias outras lógicas polivalentes.
lógicas que, derrogam a lei da contradição, pelo menos em certos aspectos,
denominadas paraconsistentes.
Por último, as lógicas não reflexivas impõem delimitações à lei da identidade,
com aplicações à mecânica quântica, por exemplo, pois a relação de igualdade ou de
identidade não se aplica às partículas elementares.
A lei da identidade proposicional é derrogada na lógica da implicação causal, a
implicação causal: “p implica causalmente q”, significa que p causa q e, nas interpretações
comuns dessa conexão, não vale a lei em questão; conseqüentemente, se defendida a tese
de que a “verdadeira” implicação constitui algum tipo de implicação causal, a lógica
resultante tem que ser heterodoxa.
casos, porém, em que lógicas heterodoxas são susceptíveis de serem
concebidas como complementares da clássica. Com efeito, pode-se juntar à lógica clássica
um operador de implicação causal, diga-se, para tratar de certas questões de física; a lógica
resultante, portanto, seria uma lógica complementar da clássica.
Um dos sistemas de lógica heterodoxa, desenvolvidos independentemente , pelo
lógico polonês Stanislaw JASKOWSKI entre 1949 e 1949 e pelo brasileiro Newton C. A.
Da COSTA a partir de 1958 é a lógica paraconsistente, desenvolvida para desafiar o
princípio da contradição. A lógica clássica, bem como, outras lógicas não clássicas não
tratam deste princípio. A lógica paraconsistente pode ser utilizada como a lógica
subjacente de teorias inconsistentes e não triviais. Nela uma contradição não invalida, ou
não trivializa, todo o sistema. Segundo a Lógica Paraconsistente, uma sentença e a sua
negação podem ser ambas verdadeiras. A Lógica Paraconsistente apresenta alternativas a
proposições, cuja conclusão pode ter valores além de verdadeiro e falso - tais como
indeterminado e inconsistente.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
15/84
PUC-SP – 2009
A lógica paraconsistente rompe o paradigma caracterizado pela lógica de tradição
aristotélica, possibilitando a aceitação da existência de teorias inconsistentes e a
coexistência de sistemas lógicos incompatíveis entre si.
JASKOWSKI formalizou com base na gica discursiva um cálculo proposicional
paraconsistente denominado cálculo proposicional discursivo. Independentemente, nesta
mesma época, o lógico brasileiro Da COSTA, desenvolveu e vem desenvolvendo vários
sistemas paraconsistentes contendo todos os níveis lógicos usuais: cálculo proposicional,
cálculo de predicados, cálculo de predicados com igualdade, cálculo de descrições e
linguagem de ordem superior na forma de teoria dos conjuntos.
A partir dos resultados de Da Costa, os quais o filósofo peruano Francisco Miró
QUESADA, na década de 1970 denominou de paraconsistentes” originando daí o termo
lógica paraconsistente, a lógica paraconsistente vem se constituindo em um campo de
pesquisa muito progressivo e promissor tanto numa perspectiva puramente teórica como
em aplicações em áreas de inteligência artificial e sistemas de computação, servindo ao
tratamento semântico de paradoxos e do conhecimento incerto. [22]
Em 1944 Howard AIKEN construiu o MARK I, o primeiro computador
programável americano, que utilizava fitas de papel perfurado para programar e válvulas a
vácuo para cálculos.
Em 1945, John von NEUMANN, professor do Instituto para Estudos Avançados
de PRINCETON, NJ, projetou a arquitetura básica de computadores ainda hoje utilizada,
na qual a memória armazena tanto instruções como dados.
Em 1946, John W. MAUCHLEY e John Presper ECKERT criaram o Eletronic
Numerical Integrator and Calculator (ENIAC), para o exército americano, que ficou
famoso pela sua capacidade de processamento que era mais de mil vezes mais rápido que o
MARK I, e foi o primeiro computador inteiramente eletrônico, digital, programável e de
uso geral.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
16/84
PUC-SP – 2009
Em 1947, William SHOCKLEY, Walter BRATTAIN e John BARDEEN
inventam o transistor.
Em 1948, Claude SHANNON publica sua Teoria da Informação, propondo uma
medida de entropia da informação e desperta o interesse sobre as redes neurais.
Norbert WEINER foi um dos mais se destacaram neste novo campo, formalizando
observações através de análises dos princípios relacionados à teoria da avaliação. Ele era
um zoologista formado em HARVARD que publicou também em 1948 o Cybernetics,
uma teoria da comunicação e controle neurológico de homens e máquinas, onde alcunhou a
palavra Cibernética até hoje utilizada e definida, pelo próprio Weiner, como “a ciência do
controle e da comunicação, no animal e na máquina”, ou seja, a arte e técnica do comando.
Trabalha com os sistema, tanto biológicos (organismos), quanto mecânicos (mecanismos),
suas condições de estabilidade e de realimentação, buscando o estudo da complexidade.
Pretendeu também estudar o que se entende por informação e como ela é codificada e
decodificada em seu fluxo por um sistema, utilizando inclusive a Teoria da Informação de
SHANNON. Por fim, trata da informação em termos de regulação e controle de sistemas,
tanto em termos congênitos como adquiridos, envolvendo a interação entre física,
psicologia e biologia e, tratando da aprendizagem sob o enfoque de uma teoria geral dos
sistemas reguladores complexos.
A abrangência original da cibernética, ligada atraiu a discussão sobre temas
importantes à época como a comunicação de massas e a tomada de decisão política,
econômica e social. Porém, sua própria abrangência acabou por esvaziar muito dos temas
científicos da cibernética, migrados para as disciplinas de automação e controle,
informática, neurofisiologia e ecologia.
Foi neste ano também que foram apresentados os primeiros computadores de
programa armazenado do mundo, o ESDAC de Maurice WILKES e o BINAC de
ECKERT e MAUCHLEY.
Em 1949, Donald HEBB conhecido por seu trabalho A Organização do
Pensamento e considerado o pai da psicobiologia cognitiva, demonstrou que efetivamente,
redes neurais poderiam aprender, esclarecendo o processo de aprendizado do cérebro como
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
17/84
PUC-SP – 2009
um processo puramente local de alteração das sinapses, criando o que ficou conhecido
como Lei de HEBB: Se um neurônio A é repetidamente estimulado por outro neurônio B,
ficará mais sensível aos estímulos de B e a conexão sináptica de B para A será mais
eficiente.
Essa lei de aprendizagem proposta por Hebb foi interpretada matematicamente
pela comunidade que trabalhava com RNAs e serviu de base para vários trabalhos na área.
A empresa de ECKERT e MAUCHLEY desenvolveu o UNIVAC, o primeiro
computador vendido comercialmente, cujo primeiro trabalho foi compilar os resultados do
censo nos EUA.
Em 1951 Marvin MINSKY e Dean EDMONDS construíram no MIT o primeiro
computador neural chamado SNARC. EDMONDS foi responsável pela formulação da
primeira rede neural simulando um rato tentando sair de um labirinto.
Mais tarde, Minsky, por suas inúmeras contribuições a área, foi alcunhado de o
Pai da Inteligência Artificial Simbólica.
Muitos pesquisadores passaram a se relacionar ao raciocínio simbólico baseado
em regras ou baseado em relações lógicas.
Herbert SIMON, cientista político e economista, ganhador de prêmio Nobel,
propôs a teoria do satisficing, onde num processo de decisão não são consideradas todas as
variáveis possíveis, o que foi o precursor da noção de heurística. SIMON também
formulou uma teoria econômica organizacional preceituando que as partes superiores de
uma organização trabalhariam com um objetivo principal e as partes inferiores
trabalhariam com um número limitado de sub-objetivos, e isto valia para uma grande
empresa, pessoas, uma colônia de insetos, um inseto ou um cérebro do inseto.
Um professor de computação da Universidade de CARNEGIE MELLON
chamado Allen NEWELL trabalhou junto com SIMON num projeto que objetivava
descrever conceitos para o reconhecimento de padrões existentes na execução de diversas
tarefas.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
18/84
PUC-SP – 2009
Juntamente com J. C. SHAW criaram uma nova linguagem de computador, o
Idiom Processing Information (IPI), que deu origem ao IPL-II a primeira linguagem de
inteligência artificial em 1955.
Também em 1955, iniciou-se o Vale do Silício na Califórnia, com a fundação do
Laboratório de Semicondutores de William SHOCKLEY.
Atribui-se a John McCARTHY, um cientista americano doutor pela Universidade
de Princeton, o mérito de ter agrupado MINSKY, SHANNON, SIMON, NEWELL e
outros pesquisadores interessados em redes neurais e no estudo da inteligência, a se
reunirem num encontro de dois meses na Faculdade de DARTMOUTH, em HANOVER,
NH, EUA, no verão de 1956 quando o termo Inteligência Artificial (IA) foi utilizado
oficialmente para denominar este novo campo da ciência.
Apesar de várias discussões para substituição do termo como, “Processamento
Complexo da Informação” ou “Simulação de Processos Cognitivos”, não tiveram êxito e o
termo acabou sendo adotado pelo mundo acadêmico até os dias atuais.
2.3 Após o Batismo da Inteligência Artificial
Após a fixação do nome Inteligência Artificial (IA) veio uma enxurrada de
trabalhos, de forma que alguns dos pioneiros pesquisadores acharam que dominar a
funcionalidade do cérebro humano não seria assim tão difícil.
Os pólos de difusão desta nova ciência eram o Massachusetts Institute of
Technology (MIT), a Carnegie Mellon University e a Stanford University. A empresa IBM
também investiu muito nesta nova tecnologia, e em seus laboratórios sob o comando de
John BACKUS foi desenvolvido o FORTRAN.
Allen NEWELL, J.C.SHAW e Herbert SIMON criaram um programa chamado
Logic Theorist que foi um marco na história da IA, pois era capaz de comprovar teoremas
matemáticos; e inclusive comprovou o Paradoxo de RUSSELL, que perseguiu o grande
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
19/84
PUC-SP – 2009
filósofo e matemático Bertrand RUSSEL, por mais de 10 anos, antes de ser publicado no
Principia Mathematica [88], que escreveu junto com Alfred North WHITEHEAD.
O Paradoxo de RUSSEL é uma questão a respeito da Teoria dos Conjuntos:
Considere um Conjunto X que, por definição, contém todos os conjuntos que não
são membros de si mesmos. O Conjunto X contém a si próprio ou não?
Temos duas respostas possíveis SIM e NÃO.
Se considerarmos SIM, então o Conjunto X contém a si próprio, mas se ele
contém a si próprio, pela definição do Conjunto X, o Conjunto X não pode ser membro do
Conjunto X e, portanto não pertence a si mesmo. Uma vez que a resposta SIM conduz a
uma contradição, então é a resposta errada, e a correta é NÃO.
Se a resposta é NÃO, então o Conjunto X não contém a si mesmo. Mas pela
definição, se o Conjunto X não fosse membro de si mesmo, então ele tem que pertencer ao
Conjunto X, uma nova contradição.
Isto pode parecer sem importância para a maioria das pessoas, mas para Russel,
ameaçava os fundamentos da Matemática.
A Matemática russeliana é baseada no conceito dos conjuntos e a questão da
inclusão é fundamental. A definição do conjunto X é racional, a questão da inclusão
também o é.
Então por que não temos uma resposta racional?
Este paradoxo consumiu um dos casamentos de RUSSEL e mais de uma década
para ser resolvido.
A resposta estava em se processar uma transformação lógica de cada vez, então
num instante de tempo a resposta é SIM e num outro imediatamente posterior é NÃO.
Nunca é SIM e NÃO ao mesmo tempo.
Em 1957, NEWELL e SIMON fizeram um upgrade no Logic Theorist para
transformá-lo no General Problem Solver (GPS) [77] que não era pré-programado
somente para provar teoremas matemáticos. As técnicas recursivas de recuperação de
informações imitavam protocolos humanos de resolução de problemas.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
20/84
PUC-SP – 2009
Não era na Matemática que a IA tinha se infiltrado, em 1957, Noam
CHOMSKY lingüista do MIT desenvolveu um sistema gramatical para análise sem
referência à sintaxe ou semântica, que foi utilizado pelos cientistas de IA, pois o
conhecimento poderia ser representado e analisado sem a necessidade de saber o
significado do que estava sendo dito. Em seu livro Syntactic Strutures [18], considera
seriamente a computação necessária para a compreensão de uma linguagem natural. Foi a
primeira de muitas obras que lhe renderam o título de Pai da Lingüística Moderna.
Em 1958, McCARTHY e MINSKY fundaram o Laboratório de Inteligência
Artificial do MIT, onde McCARTHY desenvolveu o LISP, uma das pioneiras linguagens
de IA.
Em 1959, Grace Murray HOPPER, desenvolveu o COBOL, uma linguagem de
computador desenvolvida para uso em negócios. Grace foi uma das programadoras do
MARK I.
Em uma conferência em 1959, Frank ROSEMBLATT, apresenta pela primeira
vez o Perceptron, um novo modelo de RNA. Nele os neurônios eram organizados em
camadas de entrada e saída, onde os pesos das conexões eram adaptados a fim de se atingir
a eficiência sináptica e demonstrou que se os neurônios fossem acrescidos de sinapses
ajustáveis, poderiam ser treinadas para classificar certos tipos de padrões. O Perceptron
descrito por Rosenblatt possui três camadas, um de entrada, uma intermediária e uma de
saída., Seu Perceptron foi melhor desenvolvido no livro Principles of neurodymamics de
1962
Sua estrutura era formada por fotocélulas que informavam aos neurônios a
quantidade da intensidade de luz aplicada sobre eles. Os neurônios avaliavam a força
relativa da entrada de luz e, se o peso fosse maior do que uma entrada predeterminada pelo
sistema, então disparariam uma informação avisando ao próximo nível de neurônios sobre
a intensidade daquela. Eventualmente, emergiria um padrão decorrente desse tipo de ciclo
de transferência de informações.
Foi criado, portanto o fundamento para o treinamento das redes neurais artificiais.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
21/84
PUC-SP – 2009
A partir de 1960. Robert K. LINDSAY criou um programa chamado Sad Sam
capaz de ler frases e entender o significado como por exemplo: José é irmão de João.
Maria é mãe de José. A partir daí o computador concluía que João é filho de Maria.
Depois vieram outros como o Semantic Information Retrievel (SIR) de Bertran
RAPHAEL que entendia sentenças em inglês.
A Guerra fria entre URSS e EUA, também contribuiu para o desenvolvimento da
IA, e mais uma vez a necessidade de comunicação levou ao desenvolvimento de uma rede
de proteção de informações, de modo que elas poderiam ser descentralizadas e
compartilhadas com segurança, no caso de um ataque ao PENTÁGONO. Foi criada então
a ARPANET pela Advanced Reserch Projects Agency , exclusivamente para uso militar. O
Departamento de Defesa americano, tinha acabado de criar o viria a ser o maior fenômeno
midiático do século.
Em 1961, os primeiros robôs industriais do mundo são comercializados sendo que
o mais conhecido foi o UNIMATE da Ford Motor Company, nos EUA.
Em 1963, Tom EVANS, sob a supervisão de Marvin MINSKY, criou o programa
ANALOGY. Este foi projetado para resolver problemas que envolviam a associação de
padrões geométricos que ocorriam em casos passados com padrão de casos presentes.
Também neste ano a Universidade de Stanford fundou o Laboratório de IA sob a
supervisão de John McCARTHY.
A linguagem Beginer´s All-purpose Symbolic Instrution Code (BASIC) foi criada
no Dartmouth College por Thomas E. KURTZ e John G. HENRY, em 1964.
Também o ano de 1964 foi marcado por duas grandes previsões:
A primeira foi a de Gordon MOORE, que diz que os circuitos integrados irão
dobrar de complexidade a cada ano e meio, e a Marshall McLUHAN, por intermédio de
seu livro Understanding Media, prevê o potencial da mídia eletrônica, ao criar os termos
aldeia global e o meio é a mensagem.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
22/84
PUC-SP – 2009
Em 1965 foi inaugurado o Instituto de Robótica na Universidade Carnegie
Mellon, sob a supervisão de Raj REDDY.
De 1965 a 1970, MINSKY e Seymour PAPERT dirigiram o projeto Blocks
Microworld Project no laboratório de IA do MIT. Este projeto melhorou o conhecimento
sobre a computação, a robótica e, até mesmo a linguagem natural necessária para a
formulação de relações entre o mundo real e a linguagem de máquinas.
Em 1968, MINSKY e PAPERT publicaram o livro Perceptrons, onde apresentam
a limitação de redes neurais de uma camada, pois demonstrou que um perceptron é incapaz
de determinar se o desenho de uma linha está totalmente conectada. Isto fez com que as
pesquisas de redes neurais esfriassem.
Também neste ano, Gordon MOORE e Robert NOYCE, fundam a Integrated
Eletronics (INTEL) Corporation, que teria papel fundamental no desenvolvimento de
chips para os hardwares de computadores pessoais.
Em 1968, Terry WINOGRAD, um estudante de doutorado sob a orientação de
Seymour PAPERT, iniciou um programa denominado SHRDLU, que finalizou em 1970 e
criou uma conversa simulada entre um computador e um usuário, através do qual este
poderia fazer perguntas utilizando a linguagem natural.
Em 1970 Douglas LENAT programou o Matemático Automatizado, um
programa para redescobrir teoremas sem qualquer auxílio externo. Combinou um jogo de
idéias rudimentares, um senso de experimentação e um senso para boas descobertas,
guiando suas atividades.
Com a diminuição das tensões entre URSS e EUA, a guerra fria acaba e começou
se um período de coexistência pacífica, então o governo dos EUA, permitiu o uso do
ARPANET pelos pesquisadores e suas respectivas universidades. Devido a grande
demanda apresentada, a rede foi dividida em duas, a MILNET, que possuía as localidades
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
23/84
PUC-SP – 2009
militares e a nova ARPANET que ficaria para pesquisas. Porém esta novidade provocou o
uso dos alunos, dos amigos dos alunos divulgando cada vez mais a rede. Um esquema
técnico denominado internet protocol (IP) permitia o tráfego de informações nas redes. A
National Science Foundation (NSF) investiu na criação de backbones para interligar as
redes. Estava criado o meio físico daquilo que falamos que seria o fenômeno de
comunicação do século.
Em 1971 Alain COLMERAUER e Phillipe ROUSSEL escreveram uma
linguagem de computador chamada PROLOG, que viria a ser uma das mais utilizadas em
IA.
Começaram a surgir especialidades distintas dentro da IA. Estas incluíam o
trabalho de Edward FEIGENBAUM com sistemas especialistas; Roger SHAMK em
análise de linguagem; Marvin MINSKY com a representação do conhecimento; Douglas
LENAT em aprendizado de máquinas e natureza heurística e David MARR em visão de
máquina.
Em 1974 Paul J. WERBOS inventou o algoritmo backpropagation que habilitou
redes neurais a executar operações de classificação além das simplesmente executadas pelo
programa Perceptrons.
Em abril de 1975, Bill GATES e Paul ALLEN fundam a MICROSOFT, que viria
a ter um importantíssimo papel no desenvolvimento de linguagens de máquinas para os
computadores pessoais que viriam a povoar a vida do cidadão comum.
Também em 1975, John HOLLAND cria os Algoritmos Genéticos, os quais se
baseiam nos processos evolutivos observados nas espécies, envolvendo correspondentes
dos cromossomos, genes, alelos, genótipo e fenótipo no modelo computacional
especialmente proposto para simular esses processos.
Os termos citados anteriormente que são largamente usados nos sistemas naturais
têm as seguintes correspondências computacionais: cromossomos ("string" ou
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
24/84
PUC-SP – 2009
configuração); genes (uma posição do string); alelo (valor da função objetivo, ou custo);
genótipo (estrutura) e fenótipo - "aparência", forma, ou modelo dos indivíduos dominantes.
O fundamento teórico consiste em que, à similaridade da teoria biológica dos
sistemas naturais, os indivíduos mais aptos sobrevivem e geram descendentes com suas
características hereditárias. Estes elementos, que comporão as novas gerações, tendem a ter
a mesma aparência, ou fenótipo, que seus antecessores.
Assim, um algoritmo genético parte de uma população de indivíduos gerados
aleatoriamente, formando as configurações iniciais de um problema, faz a avaliação de
cada um mediante a aplicação da função objetivo, seleciona os mais aptos, ou seja, cuja
função de custo tenham os maiores valores, se for um problema de maximização, ou
menores, no caso de minimização e promove “manipulações genéticas”, como cruzamento
e mutação, o que na prática corresponde a perturbações, a fim de criar uma nova
população. Este processo adaptativo pode ser usado para resolver qualquer problema de
otimização, compondo um método analógico com as seguintes características: usa técnica
de randomização; é robusto (abrangente) e trabalha unicamente com o valor da função
objetivo.
Em 1976, Steven P. JOBS e Stephen G. WOZNIAK, fundam a Apple Computer
Corporation e lançam no mercado, o conceito de computador pessoal. Em 1977 criam
Apple II, com recursos gráficos coloridos é um grande sucesso mercadológico.
Entre 1970 e 1979, Tom MITCHELL publicou diversos trabalhos sobre
aprendizagem automática; Rodney BROOKS, cria o sistema ACRONYM, para
reconhecimento de objetos tridimensionais; TATE cria o sistema de planejamento
NONLIN, que usa o conceito de formalismo da tarefa; Jaime CARBONELL desenvolve o
sistema MICS para compreensão de conversas; Herbert SIMON, recebe o premio Nobel de
Economia; QUINLAN propõe o método de aprendizagem automática ID3; KOWALSKI
desenvolve o Cálculo Situacional; John McDERMOTT desenvolve o XCON, um sistema
pericial capaz de propor a configuração de sistemas computacionais da Digital Equipment
Company e Dan BRICKLIN e Bob FANKSTON desenvolvem o Visicalc e tornam os
computadores pessoais mais amigáveis e inteligentes ao usuário comum.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
25/84
PUC-SP – 2009
No início dos anos 80, as redes neurais, começaram a receber múltiplas camadas,
e com isso vão se tornando mais sofisticadas, fazendo voltar o interesse da comunidade
pelo seu uso; e os backbones da NSF ampliam se com o uso cada vez maior da
comunidade científica, e crescem também os backbones criados por empresas particulares,
esta rede começou a ser efetivamente chamada de INTERNET.
Em 1980, a lógica difusa (fuzzy), ou lógica nebulosa,inicialmente desenvolvida
por ZADEH a partir de 1965, foi empregada pela primeira num sistema projetado pela
Hitachi, para controlar o as operações de trens em SENDAY, no Japão [12].
Tratando-se da lógica difusa, pode-se afirmar que o emprego da lógica clássica
leva a uma linha de raciocínio lógico baseado em premissas e conclusões de forma binária,
isto é, uma declaração é falsa ou verdadeira, não podendo ser ao mesmo tempo
parcialmente verdadeira e parcialmente falsa. Esta suposição e o princípio da não
contradição, que coloca que “p e não p” cobrem todas as possibilidades, formam a base do
pensamento lógico ocidental.
A lógica difusa viola estas suposições. O conceito de dualidade, estabelecendo
que algo pode e deve coexistir com o seu oposto, faz a lógica difusa parecer natural, até
mesmo inevitável. A lógica de Aristóteles trata dos valores “verdade” das afirmações,
classificando-as como verdadeiras ou falsas. Entretanto, muitas das experiências humanas
não podem ser classificadas simplesmente como verdadeiras ou falsas, sim ou não, branco
ou preto. Por exemplo, a altura de um homem e o grau de risco apresentado por uma
estrutura. Um sim ou um não como resposta a estas questões é, na maioria das vezes,
incompleta. Na verdade, entre a certeza de ser e a certeza de não ser, existem infinitos
graus de incerteza. Esta imperfeição intrínseca à informação representada numa linguagem
natural, foi tratada matematicamente no passado com o uso da teoria das probabilidades.
A base da lógica difusa está no conceito de conjunto difuso, que foi introduzido,
na década de 1960, a partir de estudos desenvolvidos em Berkeley, a partir da conclusão de
que os recursos tecnológicos disponíveis eram incapazes de automatizar as atividades
relacionadas a problemas de natureza industrial, biológica ou química, que
compreendessem situações ambíguas, não passíveis de processamento através da gica
computacional fundamentada na lógica booleana.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
26/84
PUC-SP – 2009
Na década de 1970, foram desenvolvidos estudos para o controle de uma máquina
a vapor e após inúmeras tentativas frustradas com tipos distintos de controladores,
incluindo o PID (proporcional-integrativo-derivativo), somente foi possível fazê-lo através
da aplicação do raciocínio difuso. Esse sucesso serviu de alavanca para muitas outras
aplicações, como em 1980, no controle difuso da operação de um forno de cimento.
Vieram em seguida, várias outras aplicações, destacando-se, por exemplo, os controladores
difusos de plantas nucleares, refinarias, processos biológicos e químicos, trocadores de
calor, máquinas diesel, tratamento de água e sistemas de operação automática de trens.
Estimulados pelo desenvolvimento e pelas enormes possibilidades práticas de
aplicações que se apresentaram, os estudos sobre sistemas difusos e controle de processos
avançaram rapidamente, culminando com a criação em 1984, da “Sociedade Internacional
de Sistemas Difusos”.
A lógica difusa, como base da teoria dos conjuntos difusos, tem se mostrado mais
adequada para tratar incertezas nas informações do que a teoria das probabilidades. Pode-
se definir a lógica difusa como sendo uma ferramenta capaz de capturar informações
vagas, em geral descritas em uma linguagem natural e convertê-las para um formato
numérico, de fácil manipulação por sistemas digitais. Considere-se a seguinte afirmativa:
Se o tempo de um investimento é longo e o sistema financeiro tem sido não muito estável,
então a taxa de risco do investimento é muito alta. Os termos “longo”, “não muito estável”
e “muito alta” trazem consigo informações vagas. A representação destas informações
vagas se dá através do uso de conjuntos difusos.
Devido a esta propriedade e a capacidade de realizar inferências, a lógica difusa
tem encontrado grandes aplicações nas seguintes áreas: sistemas especialistas, computação
com palavras, raciocínio aproximado, linguagem natural, controle de processos, robótica,
modelamento de sistemas parcialmente abertos, reconhecimento de padrões e processos de
tomada de decisão [37].
Os conjuntos difusos têm como objetivo aproximar o raciocínio humano da lógica
executada pelas máquinas. Os conjuntos convencionais possuem limites bruscos (por
exemplo, o conjunto dos números maiores que 2), e a transição dos membros para não
membros é abrupta e repentina. O grau de associação do conjunto pode ser especificado,
por exemplo, por um número “1 para os membros e “0” para os não membros. Por
exemplo um controlador de temperatura pode considerar 35ºC como quente mas 34,9ºC
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
27/84
PUC-SP – 2009
como frio. Em um conjunto difuso, as transições entre membros e os não membros dá-se
em uma faixa gradual, sendo associado um grau ao elemento entre “0” (totalmente não
membro) e “1” (totalmente membro). Naquele controlador de temperatura, 20ºC pode ser
considerado morno e um pouco frio ao mesmo tempo, 50ºC será muito quente e assim por
diante. Desta forma, a saída de um sistema difuso será contínua e suave.
De maneira não muito bem compreendida, os humanos têm a capacidade de
associar um grau a um determinado objeto sem compreender conscientemente como se
chega a ele. Por exemplo, um aluno não teria dificuldade em assinalar um grau ao
professor no conjunto dos “bons professores”. Esse grau é alcançado imediatamente sem
nenhuma análise consciente sobre os fatores que influem nessa decisão.
O grau de associação difere da probabilidade, é sim, uma medida da
compatibilidade do objeto com o conceito representado pelo conjunto difuso. No exemplo,
o número 0,3 é a compatibilidade de João com a definição do conjunto difuso dos homens
jovens. Esse número 0,3 não é a probabilidade de João ser um homem jovem, pois ele já
tem sua idade definida de 48 anos.
Um conceito relacionado aos conjuntos difusos é o de variável lingüística.
Entende-se por variável um identificador que pode assumir um dentre vários valores. Deste
modo, uma variável lingüística pode assumir um valor lingüístico dentre vários outros em
um conjunto de termos lingüísticos. Variáveis lingüísticas podem também conter
modificadores (também lingüísticos) que alteram seu valor. Exemplos de modificadores
válidos são: muito, pouco, não muito, mais ou menos. Existem também conectivos que
podem ser aplicados à estas variáveis, “e” e “ou”. Assim, um valor válido para a variável
lingüística altura seria “não muito alto” e “não muito baixo”. Os modificadores lingüísticos
podem ser definidos matematicamente, como no exemplo dos conjuntos, baixo e muito
baixo, onde o modificador muito é caracterizado por elevar cada ponto da função de
pertinência à segunda potência. Os conectivos “e” e “ou” são equivalentes a operações de
união e intersecção de conjuntos, respectivamente, podendo dar origem a conjuntos
complexamente definidos, porém representados lingüisticamente de maneira simples.
A lógica difusa também pode ser definida, como a lógica que suporta os modos de
raciocínio que são aproximados, ao invés de exatos, como se está naturalmente acostumado
a trabalhar [8]. Nesta lógica, o raciocínio exato corresponde a um caso limite do raciocínio
aproximado, sendo interpretado como um processo de composição difusa. A lógica difusa
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
28/84
PUC-SP – 2009
combina lógica multivalorada, teoria probabilística e inteligência artificial para que possa
representar o pensamento humano, ou seja, ligar a linguística e a inteligência humana, pois
muitos conceitos são melhores definidos por palavras do que pela matemática [22]. O valor
verdade de uma proposição pode ser um subconjunto difuso de qualquer conjunto
ordenado, ao contrário dos sistemas lógicos binários, onde o valor verdade só pode assumir
2 valores: verdadeiro ou falso.
Resumindo, as principais características da lógica difusa são:
baseia-se primariamente em palavras, ou seja, os valores verdades são expressos
lingüisticamente. Por exemplo: quente, muito frio, verdade, longe, perto, rápido,
vagaroso, médio etc.
possui modificadores de predicado, como por exemplo: muito, mais ou menos,
pouco, bastante, médio etc.
possui um conjunto de quantificadores, como por exemplo: poucos, vários, em
torno de, usualmente.
faz uso das probabilidades lingüísticas, como por exemplo: provável, improvável,
que são interpretados como números difusos e manipulados pela sua aritmética.
manuseia todos os valores entre 0 e 1, tomando estes, como limites apenas.
Também em 1980, foi desenvolvido o sistema pericial PROSPECTOR, que
processa informações geológicas, geoquímicas e geofísicas do Mount Tolman nos EUA e
prevê a existência de molibdênio, que foi comprovado mais tarde; são desenvolvidos dois
sistemas para o reconhecimento de voz: HERSAY-II, que usa o conceito de blackboard e o
HARPY que cumpre os requisitos impostos pelo Departamento de Defesa Americano.
DAVIS define a Inteligência Artificial Distribuída (IAD) como a área que tem como
objetivo a resolução de problemas para as situações nas quais um único solucionador de
problemas, uma única máquina ou uma única localização computacional não são
apropriados.
Em 1981, a IBM lança o seu Personal Computer (PC) que viria a se tornar um dos
padrões de microcomputação pessoal no mundo.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
29/84
PUC-SP – 2009
No Japão, é lançado o ICOT, um programa visando à criação de sistemas
computacionais de 5ª geração.
Nesse mesmo ano é criada a BITNET, acrônimo de "Because It's Time Network",
uma rede remota, que inicialmente conectava a Universidade de Nova Iorque e da
Universidade de Yale, baseada no software Remote Spooling Communication Subsytem
(RSCS) e o protocolo de comunicação NJE (Network Job Entry), ambos da IBM, em uso
entre as duas universidades, e a ligação por uma linha telefônica permanente. A idéia de
uma rede cooperativa entra as universidades e instituições foi um passo decisivo para a
criação da BITNET, pensada para ser para ser um meio rápido e barato de comunicação no
meio acadêmico. Com esse conceito foi criado o CREN (Corporation for Research and
Educational Networking) sediado em Washington, para administrar a rede. Seus serviços
consistiam de fornecimento de serviços de correio eletrônico e de transferência de arquivos
entre computadores de instituições educacionais e de pesquisa na América do Norte,
América do Sul, Europa e Japão, tendo alcançado mais de 2.500 pelo mundo, mas
suplantada pela maior abrangência da internet na década de 90.
Em 1982, John HOPFIELD demonstrou como uma rede neural artificial simples
poderia adquirir a habilidade de calcular. Para isto teria que estruturar uma memória [15].
O princípio básico seria o seguinte:
Uma unidade ou elemento processador estaria sempre ativo ou inativo. Estas
unidades estariam conectadas as outras conexões simétricas valoradas. Uma conexão
positiva, faria com que ativassem uma a outra, e uma negativa desativasse uma vizinha.
Uma unidade aleatória seria escolhida, se alguns de seus vizinhos estivessem
ativos, a unidade computaria a soma dos valores para aqueles vizinhos ativos. Se a soma
fosse positiva, a unidade se ativaria, caso contrário tornar-se-ia negativa. Sucessivamente o
processo seria repetido até que a rede alcançasse sua estabilidade e nenhuma unidade
mudasse mais de estado. Estava então definido um padrão de memória associativa. Este
processo foi denominado de relaxamento paralelo.
Em 1983, BROOKS usa o conceito de “volume varridopara o planejamento de
trajetórias; Douglas LENAT trabalha no projeto CYC, que visa suportar sistemas de língua
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
30/84
PUC-SP – 2009
natural robustos com necessidades de bases de conhecimento de grande dimensão e
DAVIS introduz o Contract Net Protocol , um protocolo para negociação entre agentes.
Nesse mesmo ano é publicada a técnica do Simulated Annealing, Têmpera
Simulada, utilizado, de forma eficiente, para resolver problemas gericos de otimização
combinaria (discreta) e global (contínua) [12]. A fundamentação baseia-se nas simulações da
evolução do equilíbrio térmico dos materiais, a qual utiliza simulões probabilísticas para gerar
seqüências de estados do material caracterizados pelas posões de suas partículas; de forma
que, sob altas temperaturas estas estão totalmente "desorganizadas" correspondendo a uma
configuração aleatória de um problema de otimização, geralmente distante da configuração
ótima desejada.
Uma pequena alteração nas posições de algumas destas partículas (perturbação)
resulta numa variação de energia, para mais ou para menos, que equivale a uma alteração
no valor da função objetivo no mesmo sentido. Essa técnica teve bastante repercussão
posterior quando foi aplicada como algoritmo de aprendizado em RNAs, dando origem à
“Máquina de Boltzmann”.
Em 1984, HERMAN e KANADE desenvolvem o sistema de visão por
computador, o MOSAIC e começa a ser desenvolvido na Carnegie Mellon University de
PITTSBURG, o NAVLAB, que fará com que veículos autônomos possam ser guiados sem
a intervenção humana.
Novamente aparece em 1985, uma significativa contribuição de MINSKY,
quando publicou o seu famoso Society of Mind, livro no qual apresenta uma teoria da
mente em que a inteligência é vista como sendo o resultado de uma organização adequada
de uma hierarquia de mentes com mecanismos simples no nível mais baixo da hierarquia.
Ainda em 1985, Jerome WEISNER e Nicholas NEGROPONTE fundaram o
Media Laboratory no MIT, dedicado a pesquisar possíveis aplicações e interações da
informática, sociologia, comunicação e inteligência artificial no contexto da tecnologia de
mídia.
A MICROSOFT e a IBM lançam o MS Windows, que seria a referência em
sistemas operacionais para computadores pessoais.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
31/84
PUC-SP – 2009
Em 1987, Etienne WENGER publica um livro sobre Tutores Inteligentes,
sistemas capazes de ensinar de um modo inteligente e os sistemas de fala possuem um
grande vocabulário, reconhecimento de fala contínua ou independência do falante, os
sistemas robóticos de visão movimentam mais de 300 milhões de dólares nos EUA, e a
memória de computador custa cem mil vezes menos do que em 1950, quando TURING
enunciou o seu teste.
MINSKY e PAPERT publicam uma edição atualizada do Perceptrons em 1988,
na qual discutem os recentes desenvolvimentos em redes neurais para inteligência e faz-se
renascer o interesse pelo assunto.
Em 1989, Pattie MAES pesquisadora do MIT, publica um artigo How to do the
right thing [59] onde propõe um algoritmo para a seleção de ações de um agente autônomo
que tem uma coletânea de módulos de competência, que são ativados ou desativados
dinamicamente segundo critérios de comportamento, mediante conflitos do tipo orientado
x perdido, seguir planejado x adaptar se ao novo ou fazer detalhadamente x fazer
rapidamente. Este artigo chamou a atenção da comunidade científica para o que viriam a
ser definidos mais tarde Agentes Inteligentes Artificiais.
Em 1989, em Genebra, Suíça, o pesquisador Tim BARNES-LEE do Conseil
Européen pour la Recherche Nucléaire (CERN), desenvolveu aquilo que daria o início a
nova fase da internet, o World Wide Web, um sistema que interligava universidades, para o
tráfego de dados de pesquisas.
Novamente MAES publica outro artigo relevante Designing Autonomous Agents
[57] em 1990.
Em 1990 a Matsushita Electric Industrial Co. (PANASONIC) lança pela primeira
vez um eletrodoméstico com circuitos eletrônicos baseados em lógica difusa.
Em agosto de 1991, BARNES-LEE criou o HyperText Markup Language
(HTML) e o HyperText Transfer Protocol (HTTP), que viriam a ser fundamentais para a
comunidade científica usar massivamente a internet.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
32/84
PUC-SP – 2009
Também em 1991, surge o Prêmio LOEBNER, que anualmente relança o desafio
do Teste de Turing.
Em 1992, o conglomerado FIAT/LANCIA/ALFA ROMEO, passa a usar o
Integrated Diagnostic Expert Assistant System (IDEA) para diagnosticar e reparar seus
autos. A FORDYCE usa o Logistics Management System (LMS), um sistema de logística
multi-agente da IBM.
O então senador Al GORE dos Estados Unidos lançou o termo Superhighway of
Information em 1992, para o que viria a ser a internet.
Em 1993. Tom GRUBER define o termo Ontologia no âmbito de partilha do
conhecimento com o sentido de “especificação de uma conceitualização”.
Em 1994, finalmente foi lançado o World Wide Web para as pessoas comuns,
fazendo com que não somente o meio acadêmico tivesse amplo acesso à internet.
Agents that Reduce Work and Information Overload [56], é publicado por
MAES no MIT em 1994, onde ela discorre sobre o crescimento de uso do computador e
suas informações e as dificuldades das pessoas em interagir com a mesma rapidez. Propõe
então que as técnicas de IA, particularmente dos agentes autônomos sejam utilizadas de
maneira indireta como complementos auxiliares desta interação. O artigo focava numa
nova forma de se construir agentes de interface; e ela apresentou diversos protótipos desde
assistentes pessoais de agendamentos de compromissos, manipulação de e-mails, filtros de
informações e seleção de entretenimentos.
Em 1995 Michael WOOLDRIDGE e Nicholas R. JENNINGS publicam no
KNOWLEDGE ENGINEERING REVIEW, Inglaterra o artigo Intelligent Agents: Theory
and Practice , onde clarificam o assunto em partes: 1- Teoria dos Agentes O que é um
agente e a formalização matemática de suas propriedades; 2- Arquitetura dos agentes isto é
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
33/84
PUC-SP – 2009
modelos de software dos agentes e finalmente 3- Linguagem dos agentes onde discorrem
sobre os diversos programas.
Em 1995, ZUE cria o GALAXIE, um sistema distribuído e descentralizado com
uma interface por voz, que permite o acesso a informações sobre um vasto leque de
domínios; FRAWLEY propõe a abordagem da Descoberta do Conhecimento que é
posteriormente em fases por FAYYAD, onde se inclui a fase do Data Mining. Orlando
Magic e o New York Knicks são os primeiros times de basquetebol a se utilizarem dos
agentes inteligentes contidos no ADVANCED SCOUT, um sistema de Data Mining e de
descoberta do conhecimento que auxilia os treinadores a montar estratégias para
determinados jogos.
Também em 1995, Stuart RUSSEL e Peter NORVIG, escrevem o livro que se
tornaria uma das referências de IA, o Artificial Intelligence: A Modern Approach. Este
livro foi revisto para uma segunda edição em 2003. Em seu segundo capítulo, os autores
aprofundam se no conceito de agentes inteligentes.
Em 1997, a HNC Software Inc. desenvolve o sistema FALCON que com base em
redes neurais artificiais, monitora transações de com cartões de crédito para detectar
pagamentos com suspeitas de fraude. O DEEP BLUE da IBM vence o campeão mundial
de xadrez Gary KASPAROV e o robô móvel SOJOURNER, transportado pela Mars
Pathfinder, explora a superfície de Marte, abrindo uma nova fase para a exploração
espacial com robôs.
Em 1998, Walter BRENNER, Rudiger ZAENEKOW e Hartmut WITTIG,
publicaram o Intelligent Software Agents Foundations and Applications, onde
explicaram seus fundamentos, métodos de desenvolvimentos e exemplos de aplicações.
Finalmente em 17 de maio de 1999, o sistema Remote Agent toma conta do
controle da nave Deep Space 1, a 60 milhões de km da Terra. DS-1 passou nas
proximidades do asteróide McAuliffe, de Marte e do cometa West-Kohoutek-Ikemura.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
34/84
PUC-SP – 2009
E daqui em diante para a computação quântica, a nanotecnologia, os algoritmos e
hardwares com capacidades replicantes e evolucionárias, dos quais trataremos melhor no
capítulo 4. O capítulo 3, a seguir, tenta definir o conceito de agentes inteligentes artificiais
para que possamos entender o presente e imaginar o futuro de forma um pouco mais
concreta.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
35/84
PUC-SP – 2009
3 AGENTES INTELIGENTES ARTIFICIAIS, O QUE SÃO?
3.1 As Tentativas de se Compreender o Fenômeno
Com o desenvolvimento da robótica, da informática e da explosão da internet a
partir de 1994, surgem os filtros colaborativos e estabelecem-se os agentes inteligentes
[64].
A informática, pelo desenvolvimento de linguagens e elementos de apoio ao
desenvolvimento de softwares cada vez mais robustos, e também pela miniaturização
crescente, possibilitam a dispersão dos elementos de monitoramento, memória e
processamento pelo ambiente.
Processadores e memória, que antes custavam milhares de lares e tinham
capacidades extremamente restritas, deram origem a processadores compactos e poderosos,
a custos baixos, possibilitando sua presença em várias partes de um automóvel, em
eletrodomésticos, celulares e até em tênis ou roupas [56].
Esse avanço tecnológico possibilitou a implementação em software de sistemas
cada vez mais sofisticados e descentralizados.
Nesse desenvolvimento, a internet expandiu-se e aumentou suas possibilidades de
conexões, juntamente com o sistema de telefonia móvel, dando aos elementos de
processamento a capacidade não apenas de se atualizarem com as informações localmente
obtidas, mas também interagir em rede, obtendo e transmitindo informações em tempo real
a qualquer outro local [39].
As interações puderam tornar-se mais precisas, e principalmente interativas,
possibilitando a coletivização de seu funcionamento em forma crescente e difusa.
Baseados nos fatos entre 1989 e 1996 existem várias definições para os Agentes
Inteligentes Artificiais [111]. Com isso, diferentes pesquisadores propõem definições,
enfatizando as características desejáveis de um agente conforme seu tipo de trabalho.
Vários termos foram criados para referenciá-los, tais como agentes autônomos,
agentes adaptativos, interfaces inteligentes, knowbots, softbots ou taskbots entre outros.
Um trabalho importante foi apresentado por Stan FRANKLIN e Art GRAESSER
do Institute for Intelligent Systems University of Memphis no Third International
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
36/84
PUC-SP – 2009
Workshop on Agent Theories, Architectures and Languages Springer-Verlag em 1996,
intitulado Is it an Agent, or just a Program?: A Taxonomy for Autonomous Agents.
FRANKLIN e GRAESSER propõem uma definição formal para os agentes
autônomos distinguindo claramente um Software Agent de um programa qualquer, mas
antes vamos citar aqui, algumas definições e suas respectivas limitações apontadas por eles
no seu artigo:
- The MuBot Agent : (Sankar VIRDHAGRISWARAN da
Crystaliz, Inc)
“O termo agente é usado para representar dois conceitos
ortogonais. O primeiro é a habilidade do agente para trabalho
autônomo. O segundo é a habilidade do agente para executar
raciocínio orientado”
(“The term agent is used to represent two orthogonal concepts. The
first is the agent´s ability for autonomous execution. The second is
the agent´s ability to perform domain oriented reasoning”)
Esta é uma definição para tecnologias móveis, na qual a execução autônoma está
subordinada a uma agência externa.
-The AIMA Agent
“Um agente é algo que pode ser visto como percebendo seu
ambiente através de sensores e que age neste ambiente através de
seus atuadores”
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
37/84
PUC-SP – 2009
(“An agent is anything that can be viewed as perceiving its
environment through sensors and acting upon that environment
through effectors”)
AIMA é um anacronismo para Artificial Intelligence: a Modern Approach título
do livro de RUSSEL e NORVIG. Os autores estavam interessados em Software Agents
incorporados em técnicas de AI. Esta definição depende fortemente daquilo que tomamos
por ambiente, sensação e ação.
Se definir o ambiente como o aquele que provê a entrada (input) e recebe a saída
(output), e se receber estímulo (input), sente e produz uma saída (output), então, cada
programa é um agente. Assim, se queremos chegar a uma diferença entre agente e
programa, temos de restringir, pelo menos, algumas das noções de ambiente, sensores e de
ação.
- The MAES Agent
“Agentes autônomos são sistemas computacionais que habitam
alguns ambientes complexos e dinâmicos, sentem e agem de forma
autônoma neste ambiente, conforme um conjunto de metas ou
tarefas para que foram concebidos.”
(“Autonomous agents are computational systems that inhabit some
complex dynamic environment, sense and act autonomously in this
environment, and by doing so realize a set of goals or tasks for
which they defined”)
Pattie MAES, do Media Lab do MIT, é uma das pioneiras na pesquisa de agentes
inteligentes artificiais. Ela acrescenta um elemento crucial para a sua definição de um
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
38/84
PUC-SP – 2009
agente: elementos que devem agir autonomamente, de modo a cumprir um conjunto de
metas. Novamente os ambientes são restritos a complexo e dinâmico.
"Vamos definir um agente como uma entidade de software
permanente dedicada a uma finalidade específica. Onde
permanente distingue agentes de sub-rotinas; agentes têm as suas
próprias idéias (agendas) sobre a maneira de realizar tarefas. E a
finalidade específica distingue os agentes de toda aplicação
multifunção; agentes são tipicamente muito menores."
(“Let us define an agent as a persitent software entity dedicated to a
specific purpose. `Persistent´ distinguishes agents from
subroutines; agents have their awn ideas about how to accomplish
tasks, their own agendas. `Special purpose´ distinguishes them
from entire multifunction applications; agents are typically much
smaller” )
Os autores estão com a Apple. A exigência explícita de permanência é uma nova
e importante adição aqui.
“Agentes inteligentes continuamente executam três funções:
Percepção das condições dinâmicas do ambiente; ação para afetar
as condições do ambiente; e raciocínio para interpretar percepções,
resolver problemas, tirar inferências e determinar ações.”
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
39/84
PUC-SP – 2009
Barbara Hayes-Roth da Stanford's Knowledge Systems Laboratory insiste que os
agentes raciocinam durante o processo de seleção da ação. Se o raciocínio for interpretado
de forma ampla, a arquitetura agente permite ações reflexivas, bem como ações planejadas.
- The IBM Agent (Intelligent Agent Strategy)
"Agentes inteligentes são entidades de software que realizam
algum conjunto de operações em nome de um usuário ou outro
programa com algum grau de independência ou autonomia, e ao
fazê-lo, empregam algum conhecimento ou interpretação dos
objetivos ou desejos do usuário."
Esta definição do Laboratório de Estratégia para Agentes Inteligentes da IBM,
mostra um agente inteligente agindo por outro, com a autoridade concedida pelo outro.
The Wooldridge & Jennings Agent:
um hardware ou (mais usualmente) software baseado em sistema
de computador que teria as seguintes propriedades:
- autonomia: agentes que operam sem a intervenção direta dos seres
humanos ou outros, e têm algum tipo de controle sobre as suas
ações e estado interno;
- habilidade social: agentes interagem com outros agentes (e
possivelmente humanos) através de algum tipo de agente de
comunicação de linguagem;
- reatividade: os agentes percebem seu ambiente, (que pode ser o
mundo físico, um usuário através de uma interface gráfica, uma
coleção de outros agentes, a internet, ou talvez todos esses
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
40/84
PUC-SP – 2009
combinados), e responder em tempo útil às mudanças que ocorrem
no mesmo;
- pró-atividade: os agentes não atuam simplesmente em resposta ao
ambiente. Eles tem que ser capazes de exibir comportamento
planejado ao tomar a iniciativa.
A definição de WOOLDRIDGE E JENNINGS, além de explicar
detalhadamente a autonomia, sensibilidade e ação, permite usar
uma ampla, mas finita, variedade de ambientes. Eles ainda
acrescentaram o requisito de comunicações.
Existem outras definições interessantes no artigo, mas aqui foram colocadas as
mais relevantes.
Baseados nas críticas a outras definições de agentes, FRANKLIN e GRAESSER
elaboraram a própria definição de Agentes Inteligentes Artificiais ou Agentes Autônomos:
“Um agente autônomo é um sistema situado dentro e participante,
de um ambiente e que sente e age sobre ele, ao longo do tempo, no
exercício da sua própria agenda e assim afetando o que ele senti
no futuro.”
(“ An autonomous agent is a system situated within and a part of
an environment that senses that environment and acts on it, over
time, in pursuit of its own agenda and so to effect what it senses in
the future”)
A definição acima satisfaz desde o “low enddos dispositivos, que pode ser um
termostato, usando um ou dois sensores e que consegue controlar a temperatura de um
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
41/84
PUC-SP – 2009
ambiente, até o high endou mais complexo dos agentes que são os seres humanos com
todos os seus conflitos.
Como a definição acima é muito ampla, é necessário estabelecer uma
classificação em subtipos, e que foi inspirada na taxonomia [32] dos seres vivos, para
sugerir a taxonomia dos agentes.
Agentes autônomos:
Agentes Biológicos
Agentes Robóticos
Agentes Computacionais
Agentes de Vida Artificial (Artificial Life)
Agentes de Programas (Softwares)
Agentes de Tarefa Específica
Agentes de Entretenimento
Vírus.
Em suma, a definição de agentes inteligentes artificiais parece estar atrelada à
própria definição de inteligência. E esta, já não mais vista unidimensionalmente, como um
“quociente de inteligência” de característica fortemente matemático, tende a enfeixar um
amplo e difuso número de habilidades. E nesse ponto, as pesquisas progridem. As
habilidades de diversos animais, com a de criar ferramentas, comunicar-se com humanos, e
usar raciocínio rudimentar voltado a decisões, bem como a de fazer cálculos ou de mentir,
são cada vez mais testadas, demonstrando que atributos considerados humanos a até a
poucos anos, agora são vistas gradativamente distribuídas no reino animal. Reforçam que,
ao invés de se perseguir o conceito numa definição, é necessário o estabelecimento de um
sistema de gradação para o raciocino e a inteligência, na compreensão de um fenômeno
mais complexo e amplo do que se supunha.
Mesmo não havendo uma escala estabelecida no presente momento, considera-se
que a tecnologia de informação, tanto em termos de software quanto hardware, atinge a
inteligência média de um inseto, mesmo que em tarefas específicas, ultrapasse a
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
42/84
PUC-SP – 2009
capacidade de processamento humana em várias ordens de grandeza, o que provavelmente
é uma das fontes da confusão do tema [44].
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
43/84
PUC-SP – 2009
3.2 Tentando Observar o Fenômeno
Os agentes inteligentes artificiais são os elementos naturais para o controle e
automação de processos, decidindo automaticamente sobre o quê, quando e mesmo como
fazer, em variados graus de autonomia. Facilitam a comunicação e o acesso à informação,
e inexoravelmente ligados à internet, esta como base de informações e portal de acesso
para relacionamentos profissionais e pessoais. Assim, a abordagem das comunidades
virtuais, sendo elas um espaço virtual de interação interpessoal e de criação de uma
inteligência coletiva, pode lançar mais luz sobre o papel dos agentes inteligentes artificiais,
uma vez que é um palco adequado para sua atuação.
As comunidades virtuais são definidas por PALLOF [78]como comunidades que
usam as tecnologias de rede, em especial a internet, para estabelecer a comunicação além
das barreiras geográficas e de tempo. Diferem em diversos aspectos quando comparadas
com as comunidades tradicionais, pois não dependem de um espaço físico,
geograficamente delimitado, para existirem, surgindo e mantendo-se pela identificação de
idéias ou atividades propostas, não se sobrepondo de forma tão pronunciada sobre a
expressão individual.
As listas de discussão de grupos de alunos ou funcionários de uma empresa, e que
são a base de muitas das comunidades virtuais podem ser um bom observatório dessa
dinâmica: enquanto muitas pessoas tímidas e “marginais” à comunidade real da qual fazem
parte, no espaço virtual, enviando mensagens e respondendo mensagens de outras pessoas,
polarizam atenção e são “vistas”. Ganham assim um foro diferenciado para se expressar,
modificando, às vezes drasticamente, seu status social entre os dois tipos de comunidade.
STEVEN JONES descreve o termo personalidade eletrônica [41], ou seja, a pessoa que nós
nos tornamos quando estamos nos comunicamos virtualmente.
As comunidades virtuais são organizadas em torno de uma atividade, ou um
pequeno grupo delas. Comunidades virtuais não precisam de fronteiras formais para
fluírem. Como os membros não podem ver os outros, as normas não dominam tanto como
em comunidades tradicionais, o que permite o melhor crescimento individual.
Elas surgem uma década após o estabelecimento da internet. Iniciada em meados
dos anos 80, com base na Usenet, um sistema de rede que ligava os centros de computação
de universidades que utilizavam o sistema operacional Unix, eram distribuídas notícias
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
44/84
PUC-SP – 2009
sobre vários tópicos relacionados à rede, e na qual os participantes podiam criar seus
próprios grupos de notícias sobre temas de interesse. Nesse início, eram locais para
discussões aos quais os membros podiam enviar mensagens tratando de algum tópico de
interesse e ler as mensagens dos outros usuários.
Os grupos de discussão orientavam-se aos assuntos técnicos e escolares,
começando, com o tempo, a surgir grupos com interesse em assuntos o técnicos como
música, comida e mesmo drogas e crescimento quantitativo exponencial. De um pouco
mais de uma centena de grupos em 1984, cresceram para quase dois mil em 1991 e para
mais de dez mil em 1994 [82]. Atualmente essa contagem perde o sentido, uma vez que
muitos dos grupos de discussão não existem de forma independente, mas criadas como
sub-comunidades dentro de estruturas maiores como o Orkut ou Twitter.
Inicialmente os grupos de discussão desenvolviam-se em ambientes não
comerciais da internet, mas como oportunidade de negócio, serviços comerciais
começaram a explorar esse mercado, com hospedagem de fóruns de discussão para o
compartilhamento de interesses pessoais e profissionais. Mais adiante, o fornecimento de
notícias e acesso a canais de informação estimularam ainda mais as comunidades,
variando-se os temas e popularizando-as junto ao público.
3.2.1 Elementos de uma Comunidade Virtual
ADLER [2] apresenta alguns elementos que definem uma comunidade virtual,
destacando as suas dimensões, os fatores que contribuem para a criação do “senso de
comunidade” e os motivos primários que motivam a participação das pessoas.
Quanto às dimensões, são identificados cinco níveis em uma comunidade:
Coesão: o senso de se estar criando um grupo e que o indivíduo pertence ao grupo;
Eficácia: O impacto que o grupo tem sobre a vida dos membros e sobre o mundo
fora dele;
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
45/84
PUC-SP – 2009
Ajuda: A habilidade de perceber que os membros a estão procurando e recebendo
vários tipos de assistência;
Relacionamentos: A probabilidade dos membros agirem individualmente,
inclusive formando outros grupos; e
Auto-regulamentação: a habilidade do próprio grupo se policiar.
Quanto aos principais componentes que contribuem para a criação de um “senso
de comunidade”, segundo ADLER:
Inclusão: O quanto os participantes estão abertos e encorajados a participar das
ações e das atividades com outros participantes;
Influência mútua: O quanto os participantes estão abertos a discussões em certos
pontos e a afetar os outros participantes; e
Compartilhamento de experiências emocionais: Inclui o compartilhamento de
eventos que têm uma conotação emocional e são tipicamente festivos, como
viagens, aniversários, casamentos e outros.
Quanto à motivação, dentre vários, os principais motivos que levam à criação de
uma comunidade virtual são:
Necessidade: Talvez seja um dos principais motivos para a criação de comunidades
virtuais. Por exemplo, nas instituições de ensino, os materiais apresentados em
salas de aula podem ser repassados aos estudantes ou projetos de pesquisas podem
ser discutidos em horários quando não a possibilidade do encontro físico dos
envolvidos.
Independência de espaço: É a possibilidade de inter-relação entre indivíduos
geograficamente separados, com os mesmos interesses, como, por exemplo,
pessoas que vivem em zonas rurais, e que têm necessidade ou interesse em
comunicar-se com pessoas que vivem em centros urbanos. Desse modo, as
comunidades virtuais possibilitam a criação de redes de comunicação entre pessoas
dispersas pelo mundo.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
46/84
PUC-SP – 2009
Economia: um motivo importante, principalmente em comunidades virtuais
formadas dentro de empresas. Os administradores podem economizar recursos com
a criação de comunidades virtuais em suas organizações, pois nelas os membros
podem discutir assuntos relativos à empresa sem a necessidade despender mais
tempo de seu trabalho em encontros específicos realizados em determinados
lugares e momentos, bem como compartilhar conhecimentos sobre determinados
assuntos de interesse a outros membros em futuras ações da organização.
As comunidades podem ser utilizadas com os seguintes objetivos:
Prover um meio para a comunicação e para a troca de conhecimentos. Esse
conhecimento pode ser coletado e armazenado para futuras referência e
recuperação; e
Descobrir e gerar relacionamentos (membros em uma mesma comunidade de
interesse comum). Isto pode ser interessante para os usuários para uma futura
procura de parceiros para cooperação e interação. O objetivo é ajudar pessoas a
procurar pessoas que possam vir a ajudá-las.
3.2.2 Tipos de Comunidades Virtuais
As comunidades virtuais podem possuir objetivos distintos entre si [17]. Sendo
assim, uma classificação tentativa das comunidades existentes as agrupa em quatro grandes
categorias básicas.
Comunidades virtuais de relacionamentos: Uma comunidade virtual construída
encima de relacionamentos promove tipos especiais de ligações entre pessoas,
interconexões que resultam em uma peculiar harmonia, encontrada em famílias
ou grupos de amigos. Essas ligações podem ser baseadas em um interesse, objetivo
ou problema comum, mas, a todo o instante, a ênfase é no relacionamento
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
47/84
PUC-SP – 2009
construído entre os participantes. Pontos como compromisso, confiança e valores
são inerentes a qualquer relacionamento que surge em uma comunidade.
Comunidades virtuais de lugar: Os indivíduos freqüentadores desse tipo de
comunidade coabitam um mesmo local e, sentindo-se parte de um grupo, desfrutam
de segurança e comodidade. O local não é necessariamente um espaço sico real,
mas importante que forme uma identidade. Pessoas de vários países e origens
podem se encontrar numa comunidade virtual, por exemplo, porque estudaram
numa mesma universidade. Outro exemplo bem claro é a das comunidades de
jogos, nas quais os participantes encontram-se num “mundo virtual” central,
conectando-se de qualquer lugar da rede. Muitos jogos permitem a criação de
equipes, que podem ser de pessoas que nunca se viram, jogando contra outras
equipes, em tempo real e com alta interatividade. Em muitos casos, os jogadores
podem também, criar seus próprios ambientes e permitir que outros jogadores
participem.
Comunidades virtuais de conhecimentos: Nas quais se reúnem pessoas que de
forma ria tem algum objetivo em comum, podendo muitos terem os mesmos
objetivos, valores e concepções sobre determinado assunto. As principais
características nesse tipo de comunidade são o compartilhamento e as idéias,
normalmente expressas de uma forma interpessoal e técnica. Por exemplo,
comunidade de pesquisadores acadêmicos que se juntam para estudar algum
problema científico.
Comunidades virtuais de memória: Uma comunidade baseada em um passado
compartilhado ou em algum acontecimento histórico. Um exemplo marcante é a
comunidade de sobreviventes do Holocausto, na qual, pela internet os
sobreviventes e seus descendentes conversam com pessoas que se sensibilizam com
o assunto.
Comunidades virtuais de necessidade: Uma comunidade de necessidade baseia-
se em algum fato ou acontecimento semelhante, tendo algum fator que afete
emocionalmente os participantes. Por exemplo, a rede que liga pessoas com câncer
ou pessoas que perderam os filhos em acidentes de trânsito.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
48/84
PUC-SP – 2009
3.3 Expressão na Comunidade Virtual
O sentimento de grupo é um dado sociológico da espécie humana. São Tomás de
Aquino tratava da definição do homem como ser gregário, afirmando que o homem se
mantém solitário apenas em situações excepcionais, tal como num naufrágio, estado de
loucura ou quando buscava a beatitude como eremita.
A evolução e a necessidade mantiveram e expressão da espécie humana não como
indivíduos, mas afirmado em pequenos bandos tentando se proteger de predadores,
fenômenos naturais hostis e demais adversidades, unindo esforços e cooperando nesse
sentido.
O espaço de existência ou a realidade da vida - é, muitas vezes e
persistentemente, insatisfatória do ponto de vista mental, como Sidharta Gautama
afirmava:
O mundo está cheio de sofrimentos. O nascimento, a velhice, a
doença e a morte são sofrimentos, assim como o são, o fato de
odiar, estar separado de um ente querido ou de lutar inutilmente
para satisfazer os desejos. De fato, a vida que não está livre dos
desejos e paixões está sempre envolta com a angústia. Eis o que se
chama de a Verdade do Sofrimento.
O sofrimento psicológico aprofunda-se nas camadas do subconsciente ou
inconsciente, no qual se encontra um vazio depressivo em relação às coisas, isto é,
experimentam-se sentimentos de insatisfatoriedade em relação às transformações
constantes, sem que se tenha o conhecimento de suas causas. Sofre-se por se encontrar
dificuldades em aceitar mudanças, como o envelhecer, a perda de um bom emprego ou o
término uma relação.
Os jovens, em especial, talvez não sintam tanto os sofrimentos da vida, pelas
esperanças de tempos melhores, entretanto sentem-se deslocados entre crianças indefesas e
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
49/84
PUC-SP – 2009
adultos numa sociedade bem cristalizada, sentindo a necessidade de se agrupar e, tão ou
mais importante, de receber a aceitação do grupo [17].
Nessas condições são os principais, mas não os únicos, a encontrarem a sensação
de segurança no espaço das comunidades virtuais. Aceitação, possibilidade de expressão
sem muita rejeição. Sentir-se membro de um grupo.
Compartilhamento de idéias, relacionamento sentimentais a partir de um
personagem auto-criado, utilização de avatares digitais, criação de ambientes virtuais,
países imaginários, enfim, modos de interação que unem a cooperação e sentimento de
participação grupal com a segurança e minimização de frustrações.
Sob a complexidade de interações em espaços virtuais colaborativos, as
possibilidades de mediação ou interação direta, por ou com agentes inteligentes artificiais,
pode e precisa aumentar.
Não só como facilitadores técnicos em filtragem de informações, sugestões de
ações e rastreadores de hábitos, podem também ser o interlocutor ou o próprio produtor do
ambiente em que se desenrolam as atividades. Não apenas nos ambientes virtuais, mas
dentro de equipamentos, podem operar como um mordomo discreto, recheando o ambiente
com facilidades e apetrechos de forma imperceptível e prestativa [105].
Dos robôs humaniformes servindo as pessoas no imaginário da literatura e do
cinema, os agentes inteligentes artificiais dispersos no ambiente e cada vez mais
interconectados vão assumindo suas posições [53], possibilitando uma qualidade de vida
diferenciada, mais dependente da tecnologia, talvez num estilo mais estressante, mas
certamente com expectativa de vida maior e, exatamente por ele, em alguns aspectos mais
densa e proveitosa.
Dadas as considerações realizadas, de que embora os elementos tecnológicos
disponíveis no atual estágio demonstrem uma capacidade de armazenamento e de
processamento, em tarefas específicas, muito maior que a capacidade humana, a
“inteligência artificial” ainda é bem pequena, no momento atual, os esforços voltam-se
para um lado fundamental que é o do avanço tecnológico, tratado especialmente no
próximo capítulo. Por outro lado, parece se voltar para algo mais imediato, na questão do
design da interação homem-máquina [43].
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
50/84
PUC-SP – 2009
Um exemplo disso é a convergência de duas tecnologias inicialmente spares,
como a telefonia celular e os computadores. Uma primeira aproximação de ambas as
tecnologias foi pela utilização de linhas telefônicas para realizar a comunicação entre
mainframes. Posteriormente, ambas desfrutaram o processo de miniaturização e
posteriormente da mobilidade. Nesse momento, a manutenção de utilização de canais
telefônicos por computadores ampliou-se para outros canais, além da possibilidade, muitas
vezes lúdicas, de um emular o outro, como em pequenos programas que imitam um
telefone na tela do computador.
Mas a miniaturização e mobilidade tornaram possíveis que várias funcionalidades
pudessem ser instaladas em um mesmo equipamento. Notebooks com acesso wireless,
câmera e microfone, além de tecnologias de compactação e transmissão como VOIP,
possibilitam a realização de ligações telefônicas mediadas por computadores, com certas
vantagens. A realidade recente dos chamados netbooks, leves e com acesso à internet,
fáceis de transportar e guardar, apresentam com agudeza essa tendência [100].
Os aparelhos celulares, também contando com gravadores, câmeras, aparelhos de
GPS, memória e processadores, conseguem rodar vários programas, em versões leves, e
inclusive sistemas operacionais, podendo conectar-se à internet e, por seu custo utilizados
por pessoas que não querem ou não podem comprar um computador no acesso à suas
mensagens eletrônicas e a outras facilidades básicas da rede mundial.
Voltando ao design, ambas as tecnologias praticamente convergiram a um ponto
comum.
Um netbook é considerado desconfortável para ser utilizado como um computador,
servindo mais como um acessório móvel do que um computador pessoal de trabalho. Se a
realização de ligações telefônicas por eles são em tese possíveis, seu tamanho reduzido
para um computador, é enorme para um celular, não sendo viável para ser utilizado como
um.
Por outro lado, os celulares, como verdadeiras plataformas multimídias, têm sua
funcionalidade limitada nesta área, não se prestando a ser usados de forma mais intensa
como computadores.
Mesmo com as novas concepções de simplicidade e multifuncionalidade
apresentadas pela APPLE em seus Ipod, para apresentar músicas e vídeos, e seu Iphone,
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
51/84
PUC-SP – 2009
esses equipamentos não permitem muitos outros avanços para que seja vistos como mini-
computadores.
Simplificadamente, o tamanho entre eles impõe um distanciamento, não permitindo
uma convergência total, pelos atuais paradigmas de utilização e transporte.
Caso distinto de geladeiras ou microondas, que foram lançados alguns anos
atrás, com acesso à internet, numa expectativa de que as donas-de-casa acessem a rede
mundial para baixarem receitas ou comprassem mantimentos pelo visor do forno, num
exemplo de projeção infeliz de convergência de tecnologias.
O mesmo pode ser dito da expectativa de domínio da telefonia com vídeo. Um
sonho nas décadas centrais do século XX, a possibilidade agora real e acessível, mediante a
tecnologia 3G, de se falar ao telefone ao mesmo tempo em que se o interlocutor, não
parece ser muito bem-vinda, pois com o advento anterior da telefonia móvel a
materialização de outro sonho de comunicação – e, em conseqüência, a diminuição drástica
da privacidade individual, afinal as pessoas podem ser “rastreadas” em qualquer lugar a
qualquer hora.
As expectativas de comunicação onipresente e de comunicação com vídeo, ambas
um sinal do “futuro”, nas décadas passadas, quando efetivamente realizadas no presente,
causam descontentamento aos usuários, dificultando sua adesão [40].
E perspectivas em software também. O A9 é usado e considerado um eficiente
programa de busca, desenvolvido especialmente para a empresa de comércio digital
Amazon contentando seus usuários e interagindo com o usuário sob as melhores
concepções de um agente inteligente artificial.
Por outro lado, o esperado Wolfram Alpha, um prometido “motor de busca”
revolucionário, para além da atual concepção de buscadores, como o Google, e que foi
idealizado e lançado em maio de 2009 por Stephen WOLFRAM e sua equipe, um gênio
que inclusive tem uma teoria própria sobre a estrutura do universo, pode ser considerado
um fiasco.
Sendo agora referido apenas como “um primeiro passo num projeto ambicioso, de
longo prazo de tornar todo o conhecimento sistematizado imediatamente computável por
qualquer um” em www.wolframalpha.com, é um sistema que não consegue consolidar de
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
52/84
PUC-SP – 2009
forma minimamente contentável e segura o conhecimento na maioria das áreas – ou
palavras-chaves de busca.
Essas considerações servem de prelúdio ao próximo capítulo, que tratará das
tendências e expectativas de desenvolvimentos futuros da tecnologia de comunicação e
informática, dentre outras, com foco nos agentes inteligentes artificiais e suas perspectivas.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
53/84
PUC-SP – 2009
4 O FUTURO: O HOMEM E A MÁQUINA OU O HOMEMÁQUINA?
Os desenvolvimentos de diversas linhas de pesquisa levam a crer que a primeira
metade do século XXI será marcada pela grande evolução da genética, da nanotecnologia e
da robótica, ao mesmo tempo em que deverá evoluir muito na criação de fontes
alternativas de energia para compensar a escassez de petróleo e, principalmente, as
mudanças climáticas.
Quando se fala de tecnologia futura, percorremos o mundo do talvez. É inevitável
associar conhecimento e imaginação. Tecnologia está atualmente muito relacionada com
capacidade de processamento por computadores, mas no futuro deverá estar relacionada
também com outros paradigmas que procurarão imitar e ultrapassar a capacidade da mente
humana.
Dada as circunstâncias atuais, pode-se até mesmo supor que a civilização está no
limiar de uma transição para um novo patamar em termos tecnológicos e os agentes
inteligentes artificiais terão papel de destaque nesse futuro, tanto como elementos de
software como implementações de hardware.
Ou mais.
A comunidade científica descreve o que pode ocorrer, mais cedo ou mais tarde,
como “singularidade tecnológica” [45].
O termo “singularidade” começou a ser usado na física, na qual designa
fenômenos tão extremos que as equações e modelos não são capazes de descrevê-los,
como os buracos negros, lugares de densidade infinita, que levam as leis da física a
resultados absurdos. A singularidade na tecnologia leva a pensar que num determinado
momento a evolução será tão rápida e vertiginosa que ultrapassará a capacidade humana de
acompanhá-la.
O fundamento dessa idéia é que as tecnologias de várias áreas evoluem cada vez
mais rapidamente e concentram cada vez mais funcionalidades que levam a uma rápida
mudança da nossa forma de vida. exemplos bem ilustrativos desta singularidade
tecnológica, como será tratado nesse capítulo. E mesmo que ela não ocorra, por limitações
inúmeras, os avanços tecnológicos possivelmente evoluirão pelos caminhos descritos,
inclusive já delineados no momento presente.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
54/84
PUC-SP – 2009
A idéia surgiu na década de cinqüenta, com o matemático John von NEUMANN,
um dos criadores do computador, que vaticinou que as tecnologias poderiam chegar a um
ponto para além do qual “os assuntos humanos, da forma como conhecemos, não poderiam
continuar a existir”. Desde então, a evolução tem sido cada vez mais rápida, alimentando
cenários de ficção em que quase somos esmagados pela tecnologia, como nos filmes
“Terminator”, Blade Runner”, I Robot”, ou até mesmo no romance “Maŝinmondo”, ou
“Mundo das máquinas”. Escrito originalmente em Esperanto pelo húngaro SÁNDOR
SZATHMÁRI, em 1964, o conto descreve com minúcias não a tomada de consciência
das máquinas, mas também a toda uma fase pós-biológica que se seguiria à “rebelião das
máquinas”.
Porém, ambas as opiniões, de pessimismo e de otimismo são levantadas em
relação à singularidade tecnológica, sendo descrita por alguns como uma possível transição
revolucionária sob a qual seres humanos e máquinas começarão a evoluir, em um certa
harmonia, em direção à uma certa condição de “imortalidade”.
O pano de fundo quantitativo para essas afirmações surge com a datação da
evolução tecnológica que remonta alguns milhões de anos, pelas ferramentas de pedra, e
sua aceleração ao longo do desenvolvimento da agricultura, da escrita, da Revolução
Industrial e dos computadores, dentre outros avanços considerados revolucionários em
termos tecnológicos [47]. Finalmente, verifica-se que o culo XX apresentou um
crescimento exponencial no número de patentes concedidas, na difusão da telefonia, das
verbas dedicadas à educação. Extrapolando-se a linha do tempo, observa-se no futuro, a
sucessão de eventos de grande impacto no desenvolvimento tecnológico, que ao invés de
distanciados por milhares, centenas ou dezenas de anos, estarão distanciados por intervalos
de tempo cada vez mais curtos de dias, horas, segundos, tornando obsoletos nossos
esforços por acompanhar mudanças de envergaduras colossais em intervalos tão diminutos.
Entre os idealizadores dessa abordagem, o professor Ray KURZWEIL destaca-se
utilizando a chamada “Lei de Aceleração dos Retornos”, um conceito relacionado à
alavancagem que as tecnologias antecessoras legam às seguintes [44]. Por exemplo, com
máquinas de computação melhores, cálculos são realizados mais rápida e eficientemente,
possibilitando o projeto de equipamentos melhores, que por sua vez aceleram o
desenvolvimento de mais equipamentos e tecnologias, que melhoram as máquinas de
computação, que realimentam o ciclo, cada vez mais rápida e eficientemente.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
55/84
PUC-SP – 2009
E não isso. A popularização dos celulares, que compreendem cada vez mais
funcionalidades, e em custos decrescentes, ocorreu num intervalo relativamente curto, e
num ritmo exponencial. O mesmo com a internet. E o uso simultâneo de ambos está em
vias de se popularizar também, que como mencionado, torna-os uma plataforma para
operações na internet. A popularização alimenta a queda de preços pelo efeito de escala de
produção, que por sua vez acelera ainda mais a disseminação. Contraste com a
popularização da televisão, que demorou décadas para ter seu preço reduzido e sua
distribuição consolidada e ainda em vésperas de se tornar interativa a partir da recém
estabelecida TV digital.
4.1 Auscultando a Evolução Tecnológica
Vejamos algumas idéias que respaldam essa abordagem de evolução. A Lei de
Moore, segundo a qual o número de transistores num chip, de um determinado tamanho,
dobra a cada 18 meses. Com maior precisão, o poder de computação, que começa com as
primeiras máquinas eletromecânicas, mais de um século atrás, dobrava a cada três anos, e
depois, a partir da metade do século XX, duplicava em intervalos de dois anos. No
momento atual, a potência das máquinas dobra a cada ano, indicando que a própria taxa de
duplicação está em processo de aceleração, e, portanto, com tendência de aumento do
poder de computação, que tende ao infinito [67].
As previsões mais otimistas dão conta que esta progressão poderá ser válida
cerca de mais uma década, sendo que o limite será atingido por volta do ano 2020,
levando-se em conta o paradigma tecnológico corrente. Um microprocessador é uma
complexa combinação de elementos muito simples, “portas gicas”, circuitos elementares
capazes de “tomar decisões”. E as portas gicas são materializadas através da combinação
de transistores, funcionando como uma espécie de interruptor que ora liga e desliga,
controlando a corrente elétrica que gera a informação numérica básica dos computadores,
expressa em sequências de zeros e uns. Portanto, para aumentar a capacidade de
processamento é necessário aumentar o número de transistores dos microprocessadores,
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
56/84
PUC-SP – 2009
aumentando-se também sua frequência de operação. O próprio Gordon Moore declarou
anos atrás que a Lei de Moore tem seus dias contados: “A evolução não poderá continuar
para sempre porque as dimensões (dos circuitos) estão a aproximar-se do tamanho do
átomo. Parece que teremos mais quinze a vinte anos até atingirmos os limites fundamentais
do átomo.”
Devido a esta limitação física, a comunidade científica tem sublinhado a
inevitabilidade de se encontrarem alternativas aos transistores baseados em silício. As
nanotecnologias ou a computação ótica e quântica são apontados como caminhos de
futuro, já com protótipos lançados, mesmo que os investimentos maciços ainda sejam
canalizados para o paradigma do silício.
A Lei de Moore é apenas uma expressão de desenvolvimento exponencial mais
amplo, não tendo sido o primeiro, mas o quinto paradigma a fornecer crescimento
exponencial do poder computacional. O primeiro paradigma, eletro-mecânico, foi
substituído pelo baseado em transmissão, em seguida pelos tubos de vácuo, transistores,
chegando aos circuitos integrados. Cada vez que um paradigma perdeu sua força, outro
paradigma entrou em ação e continuou de onde o anterior parou.
E a velocidade de progresso, não apenas de tecnologia da informação, mas de toda
a tecnologia, não vai permanecer na atual velocidade de desenvolvimento. De fato, o
crescimento exponencial vai além da simples computação, e se aplica a todas as áreas de
tecnologias baseadas em informação, as quais têm o potencial de remodelar nosso mundo.
Tal como a taxa de aceleração na Lei de Moore, ela parece também estar
aumentando, em outras áreas de conhecimento, podendo duplicar a cada década.
Comparando-se a evolução tecnológica, os últimos 25 anos avançaram tanto quanto os 100
anos antecedentes. E pelo passo de aceleração, a próxima década avançará como vinte, e a
seguinte, como quarenta anos. Nesse cenário, o século XXI podeequivaler a algo entre
mil e dez mil anos de progresso no ritmo do final do século XX, o qual, por mais
revolucionário que tenha sido, não teve o mesmo ritmo de progresso na velocidade desta
primeira década do século XXI.
Mesmo a taxas mais modestas de aceleração, cada década do século XXI terá um
desenvolvimento cada vez maior que a anterior, todas bem acima de qualquer outra do
século XX.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
57/84
PUC-SP – 2009
Segundo Kurzweil [45], um computador de mil euros tem hoje a mesma
inteligência de um inseto. No futuro, sob o ritmo de avanço tecnológico, pode-se esperar
que se consiga igualar a capacidade de um rato, de um homem, e finalmente, de toda a
humanidade. Vale então a pena olhar o passado e verificar o que ele pode nos informar.
A Segunda Guerra Mundial gerou um grande número de invenções e marcou o
início de uma era recheada de tecnologia. Dentre as muitas invenções salientam-se o radar,
o avião a jato, a bomba atômica, as armas de precisão teleguiadas, os mísseis balísticos, os
transistores, semicondutores, fibras óticas, computadores, internet, tecnologia stealth de
invisibilidade ao radar, satélites, telefones celulares, lasers, sistema de posicionamento
global (GPS), sistemas de identificação por radiofrequência (RFID) e assim por diante. A
lista das aplicações científicas e tecnologias na guerra é impressionante. Cada uma dessas
tecnologias teve profundo impacto no curso da guerra e na forma como se protegeram os
combatentes. Em suma, estima-se que o conhecimento tecnológico, desde que a
humanidade mantém registros, até a atualidade, duplicou várias e rias vezes desde
então.
O tempo que leva desde que uma invenção encontre a sua “aplicação prática”, um
uso sem o qual não se pode mais passar, é conhecido como período da invenção à
inovação. Por exemplo, as armas de precisão, introduzidas nos anos sessenta não foram
amplamente adotadas até bem mais tarde, quando a imprensa registrou cenas de incrível
precisão de mísseis ar-terra entrando por janelas, na Primeira Guerra do Golfo. Neste caso,
o tempo da invenção à inovação foi de cerca de trinta anos. Isto é especialmente verdadeiro
no que se refere aos avanços em ciência básica, como a matemática aplicada, física,
química e biologia. Raramente uma invenção revela o que ela vai afetar no final. Na
verdade, mesmo atualmente alguns críticos menos informados ainda lamentam toda a
inutilidade gerada pelos pesquisadores.
Os trabalhos de pesquisa não frutificam rapidamente. O padrão é que as
aplicações da pesquisa básica demorem algumas décadas, não dias. Por exemplo, o tempo
que se passou entre a invenção e inovação foi de 79 anos no caso da lâmpada fluorescente;
56 anos para a bússola giroscópica; 14 anos no caso do motor a jato; 13 anos com o radar;
8 anos para o telefone sem fio. De maneira semelhante, revoluções da guerra moderna,
onde os investimentos e a exigência de resultados são enormes, não acontecem de uma
hora para outra.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
58/84
PUC-SP – 2009
Pontuando, a tecnologia stealth começou com um investimento em pesquisa
básica, nos anos de 1950, conduzida pelo Air Force Office of Scientific Research a partir
de algumas teorias básicas desenvolvidas pelo físico russo PYOTR UFIMTSEV, cuja
aplicação era ignorada no seu próprio país. Com todos estes exemplos pode-se inferir que a
maior parte da tecnologia que vamos usar nos próximos anos já foi descoberta ou será em
breve, mesmo que não se tenha a noção exata de sua importância. Por outro lado, o tempo
de aplicação torna-se cada vez menor, sendo que uma nova tecnologia é posta em uso
comercial muito mais depressa conforme a cada novo ano e, portanto, não será necessário
mais esperar várias décadas para vê-las operacionais.
Com relação aos computadores, a preocupação é direcionada. Enquanto outras
tecnologias e equipamentos são meras ferramentas, os computadores podem superar sua
atual condição para atingirem o status de “seres inteligentes” e, por conseguinte,
instrumentos de ampliação de nossa própria inteligência, parceiros, ou mesmo rivais.
Vamos agora visitar algumas linhas de desenvolvimento e seus potenciais futuros.
4.2 Pacotes de Informação
A idéia da computação quântica, usando átomos para processar dados não é nova,
existem pesquisas neste sentido desde o início da década de 80, mas eram apenas vagas
teorias, que apenas atualmente começam a se concretizar. Num processador quântico,
existem átomos ao invés de transistores. No lugar de bits, há bits quânticos, ou qubits. A
idéia fundamental é que num átomo, a rotação de cada elétron corresponde a um pequeno
movimento magnético, que pode ser controlado caso o átomo seja colocado sobre uma
superfície magnética suficientemente sensível.
Uma peculiaridade interessante é que enquanto um transistor permite apenas dois
estados, ou seja, ligado ou desligado, cada qubit possui três estados diferentes. Dois
estados são determinados pela rotação dos elétrons (horário ou anti-horário), enquanto o
terceiro é uma característica bastante peculiar dentro do mundo quântico, onde os elétrons
podem girar simultaneamente nos dois sentidos.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
59/84
PUC-SP – 2009
Parece estranho, e é por isso que existem tantos cientistas pesquisando nesta área,
mas de qualquer forma, combinado com os dois estados anteriores temos um total de 4
estados possíveis, o que permite que cada qubit processe ou armazene dois bits
simultaneamente.
Isto permite ampliar exponencialmente a capacidade dos processadores quânticos,
que dois qubits correspondem a 4 bits, 3 qubits correspondem a 8 bits e 5 qubits
correspondem a 32 bits. 10 qubits seriam suficientes para 1024 bits, enquanto 20
correspondem a mais de um milhão. Esta pode ser a grande chave para aumentar de forma
inimaginável tanto a potência dos processadores quanto a capacidade dos dispositivos de
armazenamento de memória. Não se trata de processadores operando a 100 ou 500 GHz,
mas de computadores capazes de resolver em poucos segundos cálculos que um
processador atual demoraria milhões de anos para resolver.
E pesquisas paralelas têm se desenvolvido, o grupo de estudos de lógica
paraconsistente do Instituto de Estudos Avançados da USP tem estudado a questão pois,
além desse ganho quantitativo, poderão ser realizados processamentos sobre bases gicas
mais complexas, envolvendo tanto a lógica difusa quanto a gica paraconsistente, um vez
que os fundamentos da computação quântica envolve naturalmente esses paradigmas.
Em relação à criptografia, pode-se esperar a distribuição quântica de chaves. Sua
origem remonta a 1935, quando Einstein publicou com seus colegas B. PODOLSKY e N.
ROSEN um trabalho que hoje é conhecido como paradoxo EPR, as iniciais dos nomes de
seus autores. Num esforço para refutar a mecânica quântica, Einstein tentou provar a
incompletude dessa nova teoria.
O paradoxo EPR parecia mostrar que a informação podia viajar mais rápido do
que a velocidade da luz. Em vez disso, o trabalho de Einstein levou a um novo ramo da
física, usado atualmente na transmissão de códigos secretos, que originou um campo
conhecido com criptografia quântica, que cresce cada vez mais. Usando a mecânica
quântica, os cientistas demonstraram a possibilidade de se criar um código com apenas
duas chaves, únicas e insusceptíveis de serem interceptadas. Esta inovação significa que
algum dia bancos e empresas, talvez possam gerar um código inviolável.
Através dos computadores quânticos ocorrerão gigantescos avanços em
praticamente todos os campos, como a criação de códigos de encriptação realmente
seguros, tratada acima, pesquisas em gigantescos bancos de dados usando algoritmos
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
60/84
PUC-SP – 2009
inteligentes e traços de inteligência artificial que poderão ser feitos quase
instantaneamente, a transmissão de dados poderá alcançar velocidades da ordem de vários
Terabytes (ou Petabytes) por segundo usando fibras óticas de alta densidade e routers
quânticos, capazes de lidar com esta quantidade de informação. Será o suficiente para a
internet se transformar num mundo virtual, onde as pessoas poderão encarnar os avatares
de forma eficiente, relacionando-se através de voz, gestos e até de toque, como no mundo
real.
Esse raciocínio levou à indagação da própria textura da realidade. O físico John
Archibald WHEELER, um dos últimos colaboradores de Einstein, criador do termo buraco
negro, também se debruçou sobre estas idéias ao longo dos anos 80 e concluiu que, num
nível mais básico do que quarks, múons e as menores partículas que conhecemos, a matéria
era composta por bits. “Cada partícula, cada campo de força e até mesmo o espaço-tempo
derivam as suas funções, o seu sentido e a sua existência de escolhas binárias. O que
chamamos de realidade surge em última análise de questões como sim/não”.
Mesmo as teorias das cordas ou do loop gravitacional, que tentam descrever as
partículas em termos mais fundamentais que os atualmente utilizados, não passam de
funções mais amplas de descrição de cada estrutura. Esta teoria deu origem à ciência da
física digital, que possui uma maneira peculiar de descrever os fenômenos.
Quando, por exemplo, um átomo de oxigênio se une a dois de hidrogênio para
formar uma molécula de água, é como se cada átomo operasse sobre questões como
sim/não para avaliar todos os possíveis ângulos entre eles até optar pelo mais adequado.
No final, a impressão é de que os átomos fizeram uma simulação dos processos físicos. É
uma concepção filosófica que remete à Teoria de Informação de SHANNON [106], mas
que levada ao pé da letra relembra-nos da Matrix do filme com o mesmo nome: o Universo
poderá ser uma enorme simulação computacional a Maia indiana, ou grande ilusão, a
encobrir o Shunya, o conceito também indiano do vazio, que, aliás, deu origem ao conceito
ocidental do zero.
A grande pergunta é quando esse novo paradigma será implementado, que não
se pode definir com um mínimo de certeza quando haverá uma base de progressão estável.
Pode demorar cem anos para que esse estágio tecnológico seja alcançado, ou pode demorar
apenas duas ou três décadas. Não se sabe quando surgirão as soluções para os enormes
problemas que ainda dificultam a vida dos pesquisadores. De qualquer modo, os primeiros
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
61/84
PUC-SP – 2009
computadores quânticos são realidade, a IBM, por exemplo, anunciou seu primeiro chip
quântico em 2001. Ainda é um projeto bastante rudimentar, possui apenas 5 qubits,
trabalha a apenas 215 Hz, e necessita de um aparato gigantesco de equipamentos para
funcionar, mas já mostra que é realmente possível produzir processadores quânticos.
4.3 Infodutos
Para dar conta dessa eventual massa de dados gerados e processados, os avanços
nas comunicações e meios de transmissão também caminham. Se a velocidade de
transmissão de 2,5 Gbps a milhares de quilômetros é hoje banal, cabos de fibra ótica
transmitindo a 10, 20 e 40 Gbps estão sendo instalados. Por outro lado, sem acréscimos de
custo exorbitantes, as infra-estruturas de grande distância não se baseiam numa única
fibra, mas em várias dezenas colocadas lado a lado. A tecnologia de rede ethernet
continuará a dominar e a acelerar a velocidade. De acordo com o Institute of Electrical and
Electronics Engineers (IEEE) nos próximos anos haverá a padronização de transmissão
para 100 Gbps [17]. Velocidade impensável atualmente para ligações sem fios.
As comunicações sem fios também irão evoluir bastante principalmente pelos dos
novos padrões WiMAX. Cada vez mais os computadores, equipamentos domésticos e
eletrônicos sairão de brica com dispositivos wireless para se ligarem com a casa ou
escritório, assim como crianças poderão carregar um dispositivo para serem rastreadas
pelos pais, como previu Nicholas NEGROPONTE, cientista do MIT. Com a tendência da
infra-estrutura de telecomunicações se tornar uma rede única, os dispositivos terão papel
fundamental. São eles que irão conduzir o usuário que não precisará de se preocupar em
descobrir se o serviço a que está em uso vem pela rede de telefonia móvel, fixa, Wi-Fi, TV
Cabo ou por qualquer outro meio. No futuro haverá uma grande rede em que a tecnologia
IP correrá sobre vários meios de comunicação e sobre o qual correrão os vários serviços
disponíveis, desde voz, vídeo, multimídia, imagens, etc.
O grande desafio que se aproxima para se poder ligar mais usuários da internet,
mais equipamentos e permitir intercomunicação com outras redes, em especial as redes
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
62/84
PUC-SP – 2009
sem fios, é a migração da rede internet de IPv4 (endereçamento de 32 bits) para IPv6
(endereçamento de 128 bits). No futuro próximo deverá haver utilização massiva de
conteúdos multimídia, como vídeo, e por isso a velocidade da comunicação terá de crescer
bastante. A rede tem ainda de proporcionar confidencialidade através de encriptação,
identificação única para acesso a recursos na rede, acesso sem fios em qualquer lugar de
modo seguro, biometria, gestão da identificação e personalização.
Os países ricos continuaram a evoluir os seus sistemas de comunicação via
satélite, mas darão cada vez mais importância a outros sistemas que se apresentam como
alternativa de recurso.
Uma das áreas em estudo é da utilização de frequências rapidamente absorvidas
pela atmosfera, as ondas da ordem de terahertz (um terahertz = 1.000 GHz) que não se
propagam a mais do que alguns quilômetros. Esta delimitação é também uma vantagem
que pode assegurar comunicação segura de pequeno alcance entre os nós de uma rede
dinâmica de computadores ou, por exemplo, entre soldados, quando quiserem impedir a
interceptação a longas distâncias.
Outra área que se irá desenvolver será por certo as redes sem fios na banda VHF.
Com a necessária tendência para minimizar o consumo de combustíveis, haverá lugar para
a utilização de veículos inteligentes controlados remotamente que transmitirão em tempo
real para o centro de fusão de dados toda a informação que vão recolhendo.
E a nanotecnologia também apresenta suas respostas para novos paradigmas,
como será tratado depois.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
63/84
PUC-SP – 2009
4.4 Servo Mecânico
Quanto à robotização, o campo militar está na vanguarda para a criação de robôs
de combate. O Pentágono mantém um programa designado por Future Combat Systems
(FCS) para a modernização do exército americano para a próxima década. O atual
programa, maior da história, dispondo de recursos da ordem de cem bilhões de dólares é
formado por uma série de sistemas, contando com humanos apenas em algumas das partes,
e conectados em rede com as mais avançadas tecnologias capazes de dominar os cada vez
mais complexos teatros de operações. Os robôs bélicos, em fase de construção, estão
muito longe de se parecerem ou atuarem como um humano, no entanto são já essenciais na
desativação de explosivos, inspeção de bunkers e trincheiras. As novas versões incluem
rifles automáticos. Dentro de uma década, cada unidade do exército americano podeter
vários soldados robôs.
A idéia do Pentágono de ter soldados robôs está sendo desenvolvida há trinta anos
e pode levar mais algumas décadas até se atingir o objetivo. Em 2035 o Pentágono planeja
ter soldados robôs que combatam como humanos. E pelos avanços divulgados, pretendem
ter robôs humaniformes em menos de duas décadas.
Agentes inteligentes artificiais representados no filme Metropolis ou os sonhados
pelo escritor Isaac ASIMOV em seus vários romances. Companheiros tangíveis para
guerras, missões espaciais, trabalhos perigosos. Enfim, companhia aos humanos solitários.
4.5 Engenharia do Minúsculo
A nanotecnologia, utiliza técnicas capazes de medir, manipular e organizar a
matéria na escala nanométrica - do tamanho de um milionésimo de milímetro. A
nanotecnologia atual, ou a engenharia molecular”, faz parte da tendência difusa de
miniaturizar as coisas, que já ocorre há muitas décadas, mas agora num patamar abaixo das
dimensões de nossas unidades biológicas, as células.
está em desenvolvimento uma miríade de novos materiais e técnicas,
aperfeiçoadas através da nanotecnologia. Nas perspectivas militares, os avanços recentes
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
64/84
PUC-SP – 2009
sugerem a possibilidade, por exemplo, de envolver projéteis com uma camada da grossura
de uma molécula, tornando-os super-escorregadios e capazes de penetrar muito mais
profundamente do que as atuais bombas padrão antibunker. Pretende-se que os avanços
futuros também possam permitir que algum dia os militares em combate transportem
“nanomédicos” na sua corrente sanguínea, para reparar danos nos órgãos internos. Mais
algum tempo, com a queda de custos e esses tratamentos seriam disponibilizados à
população civil, numa utilização mais humanitária e construtiva.
Na tecnologia da informação, a nanotecnologia pode fazer frente à já visível
barreira da Lei de Moore, respondendo com um sexto paradigma de evolução da
computação que não seja necessariamente quântico, através da distribuição tridimensional
e nanoscópica de elementos eletro-digitais.
Embora nosso cérebro utilize neurônios lentos e grandes para os atuais padrões
computacionais, devido à sua organização tridimensional e massiva interconexão
sinápticas, a computação paralela realizada pelo cérebro supera em muito a nossa atual
tecnologia.
As implementações de computação tridimensional estão surgindo, ainda em fase
experimental. A junção desse conceito com a operação em escala molecular pode significar
a superação do design biológico de forma estarrecedora.
Arranjos hexagonais de átomos de carbono, chamados de nanotubos, podem ser
utilizados como matéria-prima para a construção de qualquer componente eletrônico e
devidamente organizados, podem formar circuitos eletrônicos, em escala molecular.
Um centímetro cúbico de nanotubos superaria em sessenta mil vezes a capacidade
computacional do cérebro humano. Um centésimo de milímetros cúbicos seria equivalente
a um cérebro humano. E estima-se que essa capacidade computacional esteja disponível a
custo acessível entre 2030 e 2040. Em 2050, espera-se a capacidade computacional de toda
a humanidade em chips comerciais. Não um, mas milhares ou milhões desses chips
produzidos e comercializados. Capacidade virtualmente inesgotável de armazenamento de
toda a informação passada e de todo o processamento para o planejamento do futuro.
Nesse panorama, mesmo em momentos bem anteriores, a disseminação pelo
ambiente de hardwares de suporte a ações de processamento e armazenamento de memória
de agentes inteligentes artificiais seria uma imposição natural. Equipamentos, vestuário,
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
65/84
PUC-SP – 2009
calçados e mesmo implantes imperceptíveis contendo a capacidade de processamento
humano, ou de uma míriade de humanos, conectados entre si, onipresentes no ambiente.
E as possibilidades não param por aqui, dependendo apenas de tempo e superação
de barreiras técnicas mais ou menos transponíveis [42]. existem tecnologias que
demonstram a possibilidade de comunicação direta entre elementos digitais e neurônios.
transistores neurais detectam pulsos elétricos em neurônios, disparando, ou, por sua vez
podem induzir impulsos elétricos ou mesmo impedir que neurônios disparem. Dessa forma
a comunicação nos dois sentidos é garantida.
A partir de implantes, ou mesmo de nanorobôs, seria possível a conexão entre o
cérebro e a máquina, podendo o correr o compartilhamento de informações, memórias e
mesmo de sensações provenientes dos órgãos dos sentidos.
Num cenário mais sofisticado, nanorobôs, cada um muito menor que um
neurônio, poderiam percorrer a corrente sanguínea ou se fixarem junto a neurônios e à
fibras nervosas, interagindo entre si, formando conexões adicionais em um número
equivalente ou mesmo muito maior que as conexões biológicas, e interagindo com estas,
possibilitariam a ampliação da capacidade humana de raciocino e memória, não apenas a
“nativa”, biologicamente existente, mas também possibilitaria a importação de memórias
ou de capacidades adicionais, numa explosão exponencial da interação homem-máquina
[46].
O alcance e letalidade dos braços humanos foram ampliados por pedras e galhos,
depois por pedras afiadas e lanças; pás, martelos colheres, potes e sacos ampliaram a
capacidade humana de transportar e mover materiais. Peles de animais e fibras vegetais
possibilitaram ao homem deslocar-se pela Era Glacial a quase todos os pontos do planeta.
Barcos, carroças, automóveis e aviões possibilitaram e possibilitam o deslocamento de
nossa espécie numa rapidez e escala desconhecidos no reino animal.
A linguagem oral e posteriormente a escrita quebraram o paradigma de
transmissão de informações às futuras gerações numa escala de alguns bit, apenas através
do código genético, para milhões. O atual status da tecnologia da informação possibilita a
transmissão em níveis de trilhões de bits de novas informações legadas, em crescimento
acelerado.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
66/84
PUC-SP – 2009
Os celulares, MP3 aos MP10, notebooks e demais equipamentos ampliam nossa
capacidade. Implantes seriam um avanço inicialmente vistos como invasivos, mas
seguindo a tendência crescente de consumo de mais implementos.
A ampliação das nossas capacidades mentais inicialmente realizadas por livros e
réguas de cálculo, agora são obtidas pelos equipamentos móveis, nos bolsos e fones de
ouvidos. Num patamar futuro, imperceptivelmente dispostos sobre o corpo e,
posteriormente, sob o corpo, possibilitando não apenas mais informações, mas mais
raciocínio e virtualização de nossos sentidos a partir de interação efetiva entre cérebro e
elementos digitais e sempre com possibilidade de conexão extracorporal, o que
produziria uma verdadeira rede mundial de cérebros.
E, finalizando, nesse panorama, seria possível o escaneamento cerebral em escala
um para um, ou seja, de praticamente todos os detalhes anatômicos e fisiológicos do
cérebro, a partir da nanotecnologia invasiva. Um mapeamento completo e detalhado de
cada função neural a cada instante, podendo-se assim entender melhor os princípios
básicos de funcionamento do cérebro, podendo-se projetar softwares mais inteligentes e
mesmo mais próximos da capacidade humana, o que acontece em certa medida com a
tecnologia atualmente disponível, trabalhando-se com a arquitetura cerebral, sobre a base
de estruturas caóticas, altamente paralelas, auto-organizáveis, holográfica e, sem
redundância expressiva, extremamente complexas.
A singularidade, prevista como um conflito entre a inteligência humana e a
sintética pode seria ser atingida pela fusão de ambas num nível maior que o atual.
Notemos, pois que essa fusão já ocorre, apenas ainda não muito eficientemente.
4.6 Tecnologias de amanhã hoje
Exemplos de “tecnologias do futuro” que podem ser observados agora mesmo e
ilustram o avanço de ficções do passado realidades de hoje. Reforçam a possibilidade de
desenvolvimentos não lineares de toda a tecnologia, em especial a da informação e, por
conseguinte, dos agentes inteligentes artificiais nas direções anteriormente delineadas, o
que apóia o que foi explanado nos parágrafos anteriores sejam expectativas futuras, mesmo
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
67/84
PUC-SP – 2009
que sem tempo certo para ocorrerem, mas não muito distantes e não somenos delírios
futuristas.
Para além da revolucionária tecnologia de geoposicionamento GPS, agora
trivializada pelos navegadores portáteis de automóveis, que orientam qualquer motorista
pelo trânsito das grandes cidades, novos sistemas de navegação são vislumbrados. Os EUA
estão desenvolvendo programas para garantir a qualidade do posicionamento GPS mesmo
quando o sinal não está disponível ou está sob interferência. Estes programas Robust
Surface Navigation (RSN) e Sub-Surface Navigation (SSN), tendo como base sinais de
radio provenientes de emissores civis de várias origens, como antenas de TV, antenas de
celulares, etc. O programa SSN pretende assegurar um sistema de navegação a soldados
que se movam em túneis, trincheiras e cavernas até cem metros de profundidade.
No setor militar, desenvolvem-se campos de forças não letais, denominados
“efeito de fuga” a partir de ondas milimétricas concentradas em 95 gigahertz (GHz). Elas
produzem, em um certo sentido, um “campo de força”, fornecendo uma opção não-letal
alternativa a gritar para alguém ou nele atirar. O programa da força aérea americana, que
tornou-se público, estuda essas ondas que produz uma intensa dor nas pessoas atingidas a
distâncias maiores do que as típicas das pequenas armas de fogo. Como não são ondas
ionizantes, não são cancerígenas, e parecem não produzindo efeitos danosos de longo
prazo, pelo tempo de exposição esperado.
Estão também em desenvolvimento armas de energia dirigida baseadas em lasers
e microondas de alta potência, já superando as expectativas iniciais no que se refere ao que
essas tecnologias podem chegar a atingir.
Novos mísseis hipersônicos estão sendo construídos após várias cadas de
pesquisa básica e aplicada em vôo de alta velocidade, o “scramjet” de combustão
supersônica. Várias décadas após o início do projeto, o vôo do avião experimental X-43A
comprovou as idéias de WEBER e McKAY, voando a dez vezes a velocidade do som em
2004. E esses resultados são apenas o início de uma longa série de experimentos de campo
para que esses motores de altíssima velocidade possam ser utilizados.
Da mesma forma, o torpedo russo VA-111 Squall começou a ser desenvolvido na
década de sessenta, tornando-se agora o protótipo um míssil submarino capaz de
velocidades da ordem dos 200 nós debaixo de água, possivelmente até 250 nós, ou seja, até
450 km/h sob a água.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
68/84
PUC-SP – 2009
O Departamento de Defesa Americano está desenvolvendo o chamado "Smart
Dust", que são minúsculos elementos robóticos com a dimensão de um milímetro e que
podem agir como espiões militares por poderem captar imagens, transmitir informações
entre si e com uma base e coordenar-se. Ainda uma primeira geração, mas antevendo-se
avanços em breve.
Tecnologias militares para manter a defesa e ataque, mas que propulsionam o
desenvolvimento de inovações que poderão ser aplicadas no campo civil mais adiante e
mostram que o quadro apresentado sobre a progressão da capacidade computacional não é
impossível. Talvez apenas mais distante que o esperado.
Como os avanços são militarmente explorados, pode-se tentar imaginar o que
acontecerá quando os computadores forem tão inteligentes como os humanos e houver a
capacidade instalada para a produção de processadores cada vez mais poderosos. Por
exemplo, se esses sistemas forem baseados em entidades nano tecnológicas auto-
replicantes: um nanorobô que se autoduplicasse. Se o tempo de replicação fosse de quinze
minutos, criando outro nanorobô igualmente capaz de se autoduplicar , em apenas algumas
horas, a partir de uma unidade, poderiam surgir 68 bilhões de nanorobôs. Se for um
onívoro, ou seja, utilize todos os materiais disponíveis do meio circundante e replicando a
essa velocidade, num cenário catastrófico, em poucos dias a biosfera poderia ser reduzida a
um deserto. Sistemas complexos tem propriedades emergentes que não podem ser
controladas nem previstas. Sistemas emergentes com inteligência muito superior à humana
poderiam sair do controle facilmente. Um cenário irreal, espera-se, mas aventado entre
outros, pelo cientista BILL JOY, co-fundador da Sun Microsystem e criador da linguagem
Java, que expõe o perigo do desenvolvimento futuro da genética, nanotecnologia e
robótica.
4.7 E o Software?
Uma vez que os atuais agentes inteligentes artificiais desenvolvem-se a partir de
software, implementados em servidores de redes ou como elementos do sistema de
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
69/84
PUC-SP – 2009
gerenciamento de equipamentos, a questão que surge é: Como ocorrerá o avanço nessa
área?
O presente capítulo foi quase todo ele dedicado aos avanços de hardware, uma
vez que essas promessas de implementações físicas podem simplesmente aniquilar nossa
visão de mundo atual. Com capacidades computacionais absurdamente gigantes á
disposição, mesmo softwares mesmo dotados poderão “pensar” adequadamente, uma vez
que muito de suas limitações estão em suas plataformas físicas. Com bancos de memória e
capacidade de processamento virtualmente infinito, algoritmos de sistemas especialistas ou
redes neurais artificiais não terão muitos limites.
E, tratados, os algoritmos de inspiração biológica, como as redes neurais
artificiais e os algoritmos genéticos, existentes há várias décadas, poderão ser a base para a
emulação de inteligência adaptativa e evolucionária coisas para as quais foram
propriamente projetados, mas ainda numa fase que pode ser considerada embrionária [38].
Por outro lado, isso não vai fornecer automaticamente os níveis humanos de
inteligência, porque a textura organizacional fina, e também o software, o conteúdo e o
conhecimento embutidos são igualmente importantes.
Mesmo assim, as pesquisas têm sido realizadas nessa área, indicando que a
produtividade de software tem melhorado muito rapidamente, considerando-se que
esforços em novas ferramentas de desenvolvimento de software, a produtividade também
cresce exponencialmente, ainda que com um exponencial menor que o de hardware.
4.8 Os Homens
Os avanços tecnológicos e científicos não vêm apenas no sentido da formação dos
“cyborgs”, os imaginários seres, meio biológicos, meio máquinas, cujo nome derivou-se
dos conceitos da Cibernética [55].
Na atual taxa de desenvolvimento exponencial, a medicina e as condições gerais
de saúde têm melhorado bastante, aumentando ao longevidade média das pessoas. Se a mil
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
70/84
PUC-SP – 2009
anos atrás a expectativa de vida girava em torno de trinta anos, no século XVIII, cada ano
transcorrido acrescentava alguns dias à expectativa de vida. no culo XIX, o aumento
era de algumas semanas. No começo do século XXI, a taxa de acréscimo de expectativa de
vida é de cento e vinte dias por ano transcorrido. Como os avanços em terapias genéticas,
produção de remédios, clonagem terapêutica e demais transformações na biotecnologia, e
essa taxa vai continuar crescendo [46].
Extrapolando-se a curva de aceleração no aumento da expectativa de vida, pode-
se estimar que em dez a quinze anos, seria acrescentado mais de um ano á expectativa de
vida, o que na prática significaria a imortalidade para a geração que a alcançasse. Como a
expectativa de vida é algo estatístico, não significaria que todos nunca mais morreriam,
mas que dentro de mil, dez ou cem mil anos, ainda viveriam pessoas dessa primeira
geração, senão a grande maioria delas.
Uma possibilidade para a próxima década? Próximo século? Ou apenas um truque
matemático? Devemos nos lembrar que podemos acelerar um corpo a velocidades muito
altas, cada vez mais altas, mas quanto essas velocidades aproximam-se da velocidade da
luz, quantidades cada vez maiores de energia são necessárias para um pequeno acréscimo
na velocidade ao corpo. A velocidade da luz é uma abarreira intrasponível à qual apenas
pode-se aproximar assintoticamente.
Talvez possamos acrescentar uma expectativa alta, mas não possamos ultrapassar
a taxa de aceleração de um para um ano. Possivelmente não possamos fazer isso.
Esse raciocínio nos lembra também que os modelos de aceleração tecnológica não
são lineares. E talvez, nem mesmo exponenciais, podendo infletir em algum momento.
Muito se discutiu sobre “tecnologia”, palavra com a mesma raiz que técnica”, ambas
originadas do grego “tekhne” e que nos remete ao acúmulo de conhecimentos e sua
aplicação muitas vezes fria, inumana mesmo [31]. Opondo-se em certo sentido a elas
encontramos a palavra “arte”, dela derivando-se “artista”, partilhando da mesma
etimologia em “artífice” e “artesão”, este que fazia uma cadeira, pintava um quadro e
construía uma Catedral.
A palavra “arte” origina-se de “ars” latino, que era o sinônimo da “tekhne” grega.
Apenas a partir do Renascimento, culminando com a Revolução Industrial, o que é
considerado arte foi separando-se gradativamente do que é considerado técnica. Hoje nos
surpreendemos se um técnico é também um artista ou vice-versa. Mas nem sempre foi
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
71/84
PUC-SP – 2009
assim. Ambas faziam parte de “ciência”, ou seja, do conjunto do “saber” e do
“conhecimento”, que no íntimo de cada um forma a “consciência”.
Depara-se com a necessidade de fomentar as “boas práticas” em campos
profissionais, onde as tecnologias específicas são aplicadas. Foram esquecidas em
detrimento de “práticas eficientes a qualquer custo”.
Visualizou-se isso quando os sistemas produtivos tradicionais degeneraram ante
ao capitalismo mercantil e muito mais dramaticamente sob os capitalismos industrial e
financeiro. Uma regulação externa foi necessária para que todo o sistema se mantivesse,
inicialmente como a proteção de direitos individuais contra o absolutismo do Estado,
depois, pela preservação de direitos sociais e coletivos contra o empresariado e depois, de
preservação dos chamados direitos difusos e os “transindividuais”, que abarcam toda a
humanidade, contra o próprio sistema, pela manutenção de condições ambientais mínimas
para todos, indistintamente. O sistema não apresentava regulagens internas inerentes que
equilibrassem os “ganhos exponenciais”, devendo ser impostos externamente, vergando a
curvatura para limites toleráveis, não auto-canibalizantes [70].
A interação com a tecnologia e as perspectivas dos agentes inteligentes artificiais
pode ser uma face desse estado de não controle, quando insumos e recursos talvez não
possam ser utilizados da forma imaginada, nem lineares, mas também não apenas
exponenciais e, nem mesmo tão intercambiáveis com a consciência humana.
Não seria exagero se disséssemos que os processos mentais são regidos por uma
estupidez coletivamente bem orquestrada. O cérebro processa 400 bilhões de bits de
informação por segundo. No entanto somente tomamos “consciência” de 2.000 deles,
referentes ao ambiente próximo, ao corpo e ao tempo. Ou seja, as coisas estão acontecendo
e nós não as assimilamos por completo, não temos nem um filete de consciência do que
pensamos ter consciência. E o mais importante é que de nada valerá ter ou não ter
consciência se o envolvimento com tantos bits não nos fornecer uma mente minimamente
equilibrada, que tem como base a infinita interdependência de causas e condições [31].
Normalmente as pessoas comuns que vivem a vida na mediocridade e acham-na
chata, monótona ou sem graça, estão tão hipnotizadas pelo ambiente sistemático que nem
sequer se dão ao luxo de se questionar um pouco além do seu comodismo. Alguns se
prendem, repetidas vezes, a esta ou aquela distração. Quem sabe, em algum momento
novas afirmações possam flertar e interagir com elas: “esta é uma magnífica linha
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
72/84
PUC-SP – 2009
ilusória!” ou “o que é fantástico também deve ser abandonado!”, o que pode levá-las a
pensar que estejam numa situação paradoxal.
Ocorre que essa transição de maturidade pode ser resultante dos conceitos “fixos”
que começam a ruir.
Se as informações processadas são limitadas por um caráter seletivo com relação
às cercanias, e temos consciência de uma fração tão pequena desse colossal número de
bits, o que de fato está acontecendo? Para a integridade psicossomática é importante
perceber a realidade dos bits restantes, mesmo que sejam provisórios. Não consistência
na compreensão da realidade de aparências em sua totalidade, pois não sabemos ainda o
que se passa atrás de todas as paredes e o cérebro também não aloja uma infinidade de bits:
o mundo está fora de nossas cabeças [35].
No sentido de ações, o bem é ligado à construção e o mal à destruição, contudo,
não como separarmos uma coisa da outra. Amigos e inimigos podem se converter
conforme as circunstâncias. Supondo um naufrágio: alguém é forte e sabe nadar, mas se
tentar salvar a sua mãe ou seu filho, ambos morrerão afogados. Quem escolher? Nas
situações muito críticas, a ética sobre as decisões que se deve tomar é impecável e nossa
real natureza é identificada ao analisar em que nível amamos os outros. Além disso, ao
perder de vista o controle da mente ou o perdão, logo se odeia alguém ou a si mesmo.
Quanto à consciência humana, vários experimentos levaram à percepção de que a
autoconsciência, ou seja, a noção da “individualidade”, a propriedade do cérebro de criar a
distinção entre um “eu” e o “outro”, sendo mais um dos constructos mentais, não se
confundindo com a noção de consciência.
Descobriu-se que a aplicação de ondas com o formato invertido ao que é
produzido no cérebro na frequência de 40 Hz, correspondente à atividade gama, anula a
autoconsciência. Por isso a noção de identidade, o “eu interior”, foi anulada. Os
voluntários submetidos a essa experiência continuaram com as mesmas habilidades de
raciocínio e memória, como jogar xadrez ou falar idiomas entretanto, desconheciam quem
eram.
Ao se buscar a compreensão da consciência, entramos no território da mente-
corpo, no qual a psique está incluída. A palavra grega “psique”, da qual, naturalmente,
provém nossa “psicologia”, refere-se de modo bem mais abrangente à qualidade de estar
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
73/84
PUC-SP – 2009
vivo. Quando a psique está íntegra, os pensamentos e emoções que estão ligados a ela não
são um problema a ser resolvido ou negado.
O relacionamento entre o conhecido e o desconhecido e o acesso ao porão da
mente – sempre pôde ser consagrado. Santo Tomás de Aquino escreveu:
Não observo minha alma à parte de seus atos. Portanto,
processos na alma dos quais não temos consciência imediata.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
74/84
PUC-SP – 2009
5 CONCLUSÕES
Os agentes inteligentes artificiais, cada vez mais pulverizados, estarão integrados
em rede, utilizando vários meios de comunicação intercomutáveis, invisivelmente
dispersos pelo ambiente numa próxima etapa poderemos estar vestindo os elementos,
como celulares, fones, roupas com controles, óculos com telas interativas ao meio
observados etc. Algo que ocorre de modo insipiente, mas disponível. Adiante, numa
provável evolução tecnológica, equipamentos dentro de nossos corpos - os chips de
localização por GPS são uma realizada - e finalmente no próprio cérebro, em interação
direta com as sinapses e, portanto, na própria raiz dos pensamentos, podendo extinguindo a
diferença entre humanos e máquinas.
Esse panorama, já em desenvolvimento, corrobora a possibilidade de que nas
próximas décadas, estaremos sobre um novo patamar tecnológico, baseado em
computadores quânticos e uma robótica sofisticada, baseada principalmente em
nanotecnologia. A partir de uma rede cada vez mais densa de comunicação, serão
reduzidas as barreira entre os agentes inteligentes, para compor, talvez, uma estrutura
inteligente massiva, cooperativa e difusa, não se restringindo a um hardware específico,
uma CPU ou um mainframe, nem a um software determinado, por mais abrangente que
seja [64].
Quanto às perspectivas de avanços, são inúmeras e otimistas, sendo que muitas
possivelmente vão se concretizar, prevendo como ponto focal, uma espécie de simbiose
final entre homens e sua tecnologia, na formação de uma nova inteligência ora mais
humana no topo, como hoje já se verifica pontualmente, hora híbrida, hora artificial. Nesse
cenário a distinção clara entre inteligência humana ou das máquinas seria superada.
Nessas condições o sistema emergente, acompanhando e estimulando a
automação acelerada de linhas de projeto e produção, poderá aperfeiçoar-se num ritmo
cada vez maior, levando ao conceito de singularidade, ou superação do conceito de
humanidade, para o conceito mesmo de pós-humanidade como ilustrado por LUCIA
SANTAELLA:
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
75/84
PUC-SP – 2009
“O potencial para as combinações entre vida artificial, robótica,
redes neurais e manipulação genética é tamanho que nos leva a
pensar que estamos nos aproximando de um tempo em que a
distinção entre vida natural e artificial não terá mais onde se
balizar. De fato, tudo parece indicar que muitas funções vitais serão
replicáveis maquinicamente assim como muitas máquinas
adquirirão qualidades vitais. O efeito conjunto de todos esses
desenvolvimentos tem recebido o nome de pós-humanismo” [91].
Em termos individuais, não podemos, nos esquecer, entretanto, que esses avanços
são normalmente imaginados e tratados simplificadamente. Na Amazônia, ainda existem
mais de uma tribo que nunca tiveram contato com o homem branco, vivendo por ora ainda
na Idade da Pedra. Em boa parte da África e de interiores da América Latina, as condições
de saneamento e de segurança alimentar não são, sequer satisfeitas e o contato com
aparatos tecnológicos, mesmo ultrapassados é diminuta [90]. Nas periferias das grandes
cidades, das referidas áreas abarcadas pelo BRIC, a propagação de tecnologia não é
realizada de forma homogênea, como por exemplo, e mais dramaticamente, no campo da
saúde.
Por outro lado, se neste momento todas as máquinas no mundo fossem
desativadas simultaneamente, a civilização entraria em um colapso irreparável. poucas
décadas, entretanto, essa dependência não se verificava.
Esses dados sugerem a manutenção de um padrão de distribuição irregular de
avanços, não se antevendo um “Admirável Mundo Novo”, completa e totalmente
transfigurado, mas como no romance, mantendo ilhas, maiores ou menores, de elementos
do passado, ainda que dependentes das áreas de tecnologia de ponta.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
76/84
PUC-SP – 2009
As concretizações, porém, podem ser em prazos não tão curtos quanto os
previstos, devido a potenciais “assíntotas” ou “sigmóides” acompanhando o atualmente
palpável processo de avanço tecnológico exponencial.
Os agentes inteligentes artificiais, inicialmente como elementos de controle
robótico, foram tornando-se cada vez mais incorpóreos, como programas computacionais
implementados em elementos de processamento, cada vez menores, mais potentes e mais
baratos, facilitando sua universalização e, com o advento da internet, tornaram-se mais
interativos e dinâmicos, manifestando nela seu potencial maior de filtrar e orientar os
usuários nos conteúdos da internet e também nos equipamentos que se comunicam, tais
como eletrodomésticos, TVs e celulares, cada vez mais de forma invisível e pulverizada,
mediando nossa relação com o meio, em especial na recepção de informações [65].
E nos largos panoramas e em todos eles de evolução científica e tecnológica,
eles são os elementos centrais, devendo se desenvolver apoiados nos avanços que ocorrem
em várias frentes, tornando-se cada vez mais elementos invisíveis com maturidade muito
rápida e ganhando onipresença.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
77/84
PUC-SP – 2009
BIBLIOGRAFIA
1
AMERIKA, Mark, META/DATA A Digital Poetics, The MIT Press, Cambridge,
Massachusetts, 2007
2
ADLER, Richard P., CHRISTOPHER, Anthony J. Internet Community Primer:
Overview and Business Opportunities. Internet community primer, 1998. [on-line]
Disponível em <http://www.digiplaces.com/pages/printable_html.html> Acessado em 2
de agosto de 2008.
3
ANJOS, Pablo Lucas dos. Comunidades Virtuais de Aprendizado Adaptativo.
Comunidades virtuais de aprendizado adaptativo. [on-line] Disponível em
<http://ia.ucpel.tche.br/cva/ComunidadesVirtuaisAdaptativas 3.doc>. Acessado em 2 de
agosto de 2008.
4
ASHBY, W. Ross Introdução à Cibernética Perspectiva, São Paulo, 1970.
5
BAIRON, Sérgio, Hipermídia e Antropologia Visual, Projeto Tecnologias Digitais e
Antropologia Visual, DVD, São Paulo (Br) e Porto (Pt), 2007
6
BAKHTIN, Mikhail Marxismo e filosofia da linguagem Hucitec, São Paulo, 2006.
7
BEIGUELMAN, Giselle, Link-se, Peirópolis, São Paulo, 2005
8
BENATTON, J.F. Modos de Pensar e sistemas de controle um ponto de vista na
história IEA – USP (Coleção Documentos, série ciência cognitiva), 1994
9
BENJAMIN, Walter, A obra de arte na era da reprodutibilidade técnica (1936), Abril
Cultural coleção Os Pensadores, São Paulo, 1975
10
BERROCAL, J.L., FIGUEROLA, C.G.,ZAZO A.F.,RODRIGUEZ, E., Agentes
Inteligentes: Recupeación Autónoma de Información em el Web,Universidad de
Salamanca, Espanha
11
BETANCOURT, Michael, The Aura of the Digital, 1000 days of theory, Arthur and
Marilouise Kroker Editors, 2006
12
BITTENCOURT, Guilherme. Inteligência artificial. Ferramentas e teorias.
Florianópolis: Editora da UFSC, 1998..
13
BOURRIAUD, Nicolas, Postproducción, Adriana Hidalgo Editora, Córdoba, Argentina,
2004
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
78/84
PUC-SP – 2009
14
BRADSHAW, Jeffrey M. Software Agents, Massachusetts, MIT Press, 1997
15
BRAGA, A. P.; LUDERMIR, T. B.; CARVALHO, A. C. P. L. F. Redes neurais
artificiais: Teoria e aplicações. Rio de Janeiro: Editora LTC, 2ª edição, 2007.
16
BRENNER, Walter ; ZARNEKOW, Rudiger; WITTING, Harmut Intelligent Software
Agents – Foundations and Applications Springer-Verlang New York, 1998
17
CASTELLS, Manuel, A Sociedade em rede, Paz e Terra, 1999, 10a. Ed.2007
18
CHOMSKY, Noah Syntactic Structure The Hague:Mouton, 1957
19
COSER, Adriano. Utilização de agentes inteligentes no trabalho colaborativo via
internet. Florianópolis, 2000. Dissertação (Mestrado) - Programa de Pós-Graduação em
Engenharia de Produção e Sistemas, Universidade Federal
20
COSTA, Rogério A Cultura Digital, Publifolha, São Paulo, 2002
21
COSTA, Rogério Sociedade de Controle
, São Paulo em Perpectiva 18(1) , São Paulo,
2004
22
Da COSTA, Newton C.A. et al. Lógica paraconsistente aplicada Atlas, São Paulo,
1999.
23
DAVIS, Erik. Techgnosis - Myth, Magic and Mysticism in the Age of Information.
Nova Iorque: Harmony Books, 1998.
24
DAVIS, R.; LENAT, Douglas B. Knowlwdge-based systems in artificcial intelligence
McGraw-Hill New York, 1980
25
de Santa Catarina, 2000.
26
DELEUZE, Gilles, A dobra.Leibniz e o barroco, Papirus, Campinas, 1991
27
EPSTEIN, Richard L. e CARNIELLI, Walter Computabilidade, funções computáveis,
lógica e os fundamentos da matemática Unesp, São Paulo, 2006.
28
FELINTO, Erick. A Religião das Máquinas Ensaios sobre o Imaginário da
Cibercultura, Porto Alegre: Sulina, 2005.
29
FELINTO, Erik. Transhumanismo e Mito: Notas Sobre o Culto do Ciborgue, in:
Olhares Sobre a Cibercultura (André Lemos & Paulo Cunha orgs.), Porto Alegre:
Sulina, 2003, pp.24-36.
30
FOSTER, Don Author Unknwon: on the trail of anonymous Nova Iorque: Henry Holt
and Company, 2000
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
79/84
PUC-SP – 2009
31
FRANCO, Edgar Silveira. Arte e Novas Tecnologias: O Movimento Pós-Humano, in:
Quiosque: Observatório das Mídias, João Pessoa, (Marca de Fantasia: 2), João
Pessoa, 2001, pp.11-14.
32
FRANKLIN, Stan; GRAESSER, Art Is it na Agent, or just a Program?: A Taxonomy
for Autonomous Agent Proceedings of the Third International Workshop on Agents
Theory, Architertures and Languages Springer-Verlag, 1996
33
GALMICHE, Michel Semântica Gerativa Presença, Lisboa, 1975.
34
GOSCIOLA, Vicente, O Conceito de Hipermídia, Projeto Tecnologias Digitais e
Antropologia Visual, DVD, São Paulo (Br) e Porto (Pt), 2007
35
GUATTARI, Félix, Caosmose - Um novo paradigma estético, Editora 34, São Paulo,
1992
36
GUITTA, P. Do caos a inteligência Artificial, Unesp São Paulo, 2003
37
HAYES-ROTH, Barbara An Architecture for Adaptative Intelligent Systems Articial
Intelligence: Special Issue on Agents and Interactivity, 1995
38
HAYKIN, S. Redes Neurais. Princípios e Práticas , Bookman, São Paulo, 2000
39
HUANG, Zhisheeng An Architecture for Web Agents Scientific Literature Digital
Library, 2002
40
JENKINS, Henry, The work of Theory in the Age os Digital Transformation,
http://www.braintrustdv.com/essays/work-of-theory.html
41
JONES, Steven G. Cybersociety 2.0: Revisiting computer-mediated communication
and community. Thousand Oaks. 1998.
42
JULIAN, V.;BOTTI, V., Agentes Inteligentes: el siguiente paso em la Inteligencia
Artificial, Universidad Politécnica de Valencia, Espanha
43
KIDD, Cory D.,BREAZEAL, Cynthia, Human-Robot Interaction Experiments:
Lessons learned, MIT Media Lab,Cambridge, Massachusetts, 2005
44
KURTZWEIL, Ray. The Age of Spiritual Machines When Computer Exceed
Human Intelligence, Nova Iorque: Penguin Books, 2000.
45
KURZWEIL, Ray Singularity is near Vicking Penguin, New York, 2005.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
80/84
PUC-SP – 2009
46
KURZWEIL, Ray. Ser Humano Versão 2.0, in: Caderno Mais!, Folha de São Paulo,
São Paulo, domingo, 23 de março de 2003.
47
LEVY, Pierre As Tecnologias da Inteligência: O futuro do pensamento na era da
Informática Editora 34 São Paulo, 1998
48
LEVY, Pierre Cyberdemocratice Odile Jacob, Paris, 2002
49
LEVY, Pierre, Cibercultura, Instituto Piaget, Lisboa, Portugal, 2001
50
LIEBERMAN, Henry, Letizia: An Agent That Assists Web Browsing, Media
Laboratory, Cambridge, Massachusetts
51
LOTMAN, Mihhail, Umwelt and semiosphere, University of Tartu, Estonia
52
LOVEJOY, Margot, Art in the Electronic Age - Digital Currents, Routledge, New York
53
LUCA, Michael., D´INVERNO Mark. Understanding agent systems. New York:
Springer Verlag, 2001. 191p.
54
MACHADO, Arlindo Arte e mídia, Jorge Zahar Ed., Rio de Janeiro, 2007
55
MACIEL, Mario e VENTURELLI, Suzete. Imagens Pós-humanas: Ciborgues e
Robôs, in: Anais do Sigradi (Simpósio de Gráfica Digital -2004), 2004, pp. 247-248.
56
MAES, Pattie Agents That Reduce Work and Information Overload Em:
Communications of the ACM vol 37, No. 7 Julho,1994
57
MAES, Pattie Designing Autonous Agents The MIT Press, Cambridge, MA 1990
58
MAES, Pattie e LIU, Hugo, What Would They Think? A Computacional Model of
Personal Attitudes, Proceedings of the ACM International Conference on Intelligent
User Interfaces, Madeira, Funchal, Portugal, 2004
59
MAES, Pattie How to do the rigth thing AI-Laboratory, MIT Press, Cambridge, MA,
1989
60
MAES, Pattie, ISHII, Hiroshi e COELHO, Marcelo, Surflex: A Programmable Surface
for the Design of Tangible Interfaces, MIT, Cambridge, Massachusetts, 2008
61
MAES, Pattie, LIU, Hugo e DAVENPORT, Glorianna, Taste Fabrics and the Beauty of
Homogeneity, The Media Laboratory, MIT, Massachusetts, 2005
62
MAES, Pattie, LIU, Hugo e DAVENPORT, Glorianna, Unraveling the Taste Fabrics of
Social Networks, The Media Laboratory, MIT, Massachusetts, 2005
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
81/84
PUC-SP – 2009
63
MAES, Pattie; GUTMAN, Robert; MOUKAS, Alexandros. Agents that buy and sell:
transforming commerce as we know it Communications of the ACM vol 43 , March
1999
64
MAES, Pattie; MAX, Metral; YEZDI, Lashkari, Collaborative Interface Agents, MIT
Media Laboratory, Cambridge, Massachusetts
65
MANOVICH, Lev, Post-media Aesthetics, Extraído do
http://www.manovich.net/IA/index.html, acessado em 08/04/2006
66
MANOVICH, Lev, The Language of New Media, The MIT Press, Cambridge,
Massachusetts, 2001
67
Mc CARTHY, John Ascribing mental qualities to machines. Technical report AI Lab
Stanford University, Stanford CA, 1978
68
McCULLOCK, Warren S.; PITTS, Walter A logical Calculus of the ideas immanent in
neural nets Bulletin of Mathematical Biophysics Boston MA 1943
69
McLUHAN, Marshall Understanding media: the extension of man McGraw-Hill New
York, 1964
70
MINSKY, Marvin The Society of the Mind Simon and Schuster, New York, NY, 1986
71
MINSKY, Marvin; PAPPERT, Seymor Perceptrons MIT Press Cambridge, MA 1969
72
MORAVEC, Hans P. Mind Children: The Future of Robot and Human Intelligence,
Cambridge: Harvard University Press, 1990.
73
MORAVEC, Hans P. Robot: Mere Machine to Transcendent Mind, Oxford: Oxford
University Press, 1999.
74
MORIN, Edgar, O cinema ou o homem imaginário, Moraes Editores, Lisboa, 1970
75
MULLER B. and REINHARDT, Neural networks: an introduction. J. Springer-Verlag,
Berlin, 1990.
76
NEGROPONTE, Nicholas The Architecture Machine; Towards s more Human
Environment. MIT Press, Cambridge, MA, 1970
77
NEWELL, A.;SIMON, H. GPS, a program that simulates human thought Em:
Computers and Thought ed.E.A.Feigenbaum e J. Feldman, New York, NY McGraw-
Hill, 1963
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
82/84
PUC-SP – 2009
78
PALLOF, R., PRATT, K., Building Learning Communities in Cyberspace: effective
strategies for the online classroom. San Francisco: Jossey-Bass, 1999.
79
PEIRCE, Charles Sanders, Escritos Coligidos/Charles Sanders Peirce, seleção e
tradução de Armando Mora D´Oliveira, Coleção os Pensadores, Abril Cultural, São
Paulo, 1980
80
PELLANDA, Eduardo Campos, Olhar complexo sobre a internet móvel e o
rompimento do cordão umbilical com a informação, PUCRS, Porto Alegre, RS, 2002
81
PIGNATARI, Décio Informação linguagem comunicação Ateliê Editorial, Cotia,
2003.
82
RABUSKE, Renato Antônio Inteligência Artificial Ed. da UFSC, Florianópolis, 1995.
83
RHEINGOLD, Howard, A Comunidade Virtual, Gradiva, Lisboa, Portugal, 1996
84
RICH, E. Inteligência Artificial. São Paulo: Makron Books, 1994.
85
ROCCA, Adolfo Vasquez, Peter Sloterdijk: El Desprecio de las Masas,
consideraciones em torno al poder, PUCV, Valparaiso, Espanha, 2006
86
ROCCA, Adolfo Vasquez, Sloterdijk y el hombre como experimento sonoro; deriva
biotecnológica e historia espiritual de la criatura, Revista Observaciones Filosóficas
n.4, Buenos Aires, Argentina, 2007
87
ROSENBLATT, Frank Principles of Neurodynamics Spartan New York, 1962
88
RUSSEL, Bertrand The Principles of Mathematics. Reedição W.W. Norton Company,
New York 1996
89
RUSSEL, Stuart; NORVIG, Peter. Artificial Intelligence: A Modern Approach,
Prentice-Hall, Inc , Englewood Cliffs, NJ, 1995
90
SANTAELLA, Lucia, Linguagens líquidas na era da mobilidade, Paulus, São Paulo,
2007
91
SANTAELLA, Lucia. Culturas e Artes do Pós-Humano: Da Cultura das Mídias à
Cibercultura, São Paulo: Paulus, 2003a.
92
SANTOS, Jair Ferreira dos. Breve o Pós-Humano: Ensaios Contemporâneos,
Curitiba: Francisco Alves e Imprensa Oficial do Paraná, 2002.
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
83/84
PUC-SP – 2009
93
SANTOS, Laymert Garcia dos. Politizar as Novas Tecnologias: O Impacto Sócio
Técnico da Informação Digital e Genética, São Paulo: Editora 34, 2003.
94
SEVERINO, Antonio Joaquim, Metodologia do trabalho científico, Cortez, São Paulo,
2002
95
SILVA, Tomaz Tadeu (Org.). Antropologia do Ciborgue as vertigens do pós-
humano, Belo Horizonte: Autêntica, 2000.
96
SLOTERDIJK, Peter, Esferas III (Espumas), Ediciones Siruela, Madrid, Espanha, 2006
97
SMITH, D.C.;CYPHER, A. and SPOHRER, J. KidSim: Programming Agents Without
a Programming Language Communications of ACM, vol 37, 1994
98
SPINOZA, Benedictus de, Pensamentos Metafísicos; Tratado da correção do intelecto;
Ética; Tratado Político; Correspondência/Baruch de Espinosa, seleção e tradução de
Marilena Chauí, Coleção os Pensadores, Abril Cultural, São Paulo, 1979
99
STEFIK, Mark Focusing the Light: Making Sense in the Information Explosion . Em:
The internet Edge, Massachusetts, MIT Press, 1999
100
THÓRISSON, Kristinn R., Face-to-Face Communication with Computer Agents, MIT
Media Laboratory, Cambridge, Massachusetts
101
TURING, Alan Computing Machinery and Intelligence Reeditado em ANDERSON,
Alan Ross Mind and Machine Prentice-Hall Englewood Cliffs, NJ, 1964
102
UEXKÜLL, Jacob, A teoria do Umwelt, Revista Galáxia n.7, abril de 2004
103
Various, The Cinematic, Whitechapel London, The MIT Press, Cambridge,
Massachusetts - PRINCE, Richards, Why I Go to the Movies Alone, 1983; DAVID,
Catherine, Photography and Cinema, 1989; DURANT, Régis, Melancholic Mutations
in Cindy Sherman´s Film Stills, 1996; WALL, Jeff and FIGGTS, Mike, An Email
Exchange, 2005; CREWDSON, Gregory, Interview with Anna Holtzman, 2006
104
VIANA, Valdisio Meta-heurísticas e programação paralela em Otimização
Combinatória, UFC Edições, Fortaleza, 1998.
105
VIEIRA, Jorge A. , Formas de Conhecimento: Arte e Ciência - Uma visão a partir da
Complexidade, Vol. III Ontologia. 1, Ed. Fortaleza: Expressão Gráfica e Editora,
Fortaleza, CE, 2008
Agentes Inteligentes Artificiais
Eduardo Kiochi Nakamiti pág.
84/84
PUC-SP – 2009
106
VIEIRA, Jorge A. , Organização e Sistemas, Revista Brasileira de Informática na
Educação, Porto Alegre, v. 3, n. 1, p. 11-24, 2000
107
VINGE, Vernor. True Names: And the Opening of the Cyberspace Frontier, New
York: Tor Books, 2001.
108
VITA-MORE, Natasha. Create/Recreate: The 3rd Millennial Culture, Los Angeles:
Extropy Institute, 2000.
109
WEIBEL, Peter, La Imagen Inteligente: Neurocinema o cinema cuántico? Extraído do
http//217.76.144.68/archibos/20/mobliglatorio/00015/html/weibel frameset session5.htm
, acessado em 20/07/2004
110
WOOLDRIDGE, Michael; JENNINGS, Nick Intelligent Agents: Theory and Practice
The Knowledge Engineering Review, 1995
111
WOOLDRIDGE, Michael; JENNINGS, Nick Software Agents IEE Review, January,
1996
Livros Grátis
( http://www.livrosgratis.com.br )
Milhares de Livros para Download:
Baixar livros de Administração
Baixar livros de Agronomia
Baixar livros de Arquitetura
Baixar livros de Artes
Baixar livros de Astronomia
Baixar livros de Biologia Geral
Baixar livros de Ciência da Computação
Baixar livros de Ciência da Informação
Baixar livros de Ciência Política
Baixar livros de Ciências da Saúde
Baixar livros de Comunicação
Baixar livros do Conselho Nacional de Educação - CNE
Baixar livros de Defesa civil
Baixar livros de Direito
Baixar livros de Direitos humanos
Baixar livros de Economia
Baixar livros de Economia Doméstica
Baixar livros de Educação
Baixar livros de Educação - Trânsito
Baixar livros de Educação Física
Baixar livros de Engenharia Aeroespacial
Baixar livros de Farmácia
Baixar livros de Filosofia
Baixar livros de Física
Baixar livros de Geociências
Baixar livros de Geografia
Baixar livros de História
Baixar livros de Línguas
Baixar livros de Literatura
Baixar livros de Literatura de Cordel
Baixar livros de Literatura Infantil
Baixar livros de Matemática
Baixar livros de Medicina
Baixar livros de Medicina Veterinária
Baixar livros de Meio Ambiente
Baixar livros de Meteorologia
Baixar Monografias e TCC
Baixar livros Multidisciplinar
Baixar livros de Música
Baixar livros de Psicologia
Baixar livros de Química
Baixar livros de Saúde Coletiva
Baixar livros de Serviço Social
Baixar livros de Sociologia
Baixar livros de Teologia
Baixar livros de Trabalho
Baixar livros de Turismo