top of page

Inteligências  -  Artificial

Em 1947, Alan Mathison Turing, matemático, estudioso de Lógica e um pioneiro da computação moderna, apresentou em Londres o que é considerada por muitos a primeira palestra sobre inteligência artificial, na qual dizia:

 

“O que nós queremos é uma máquina que possa aprender a partir da experiência”, e que  “a possibilidade de permitir que a máquina altere suas próprias instruções provê o mecanismo para isso”.

 

Onze anos antes, em 1936, ele já havia apresentado as bases para um dispositivo computacional hipotético, que ficou conhecido como “a máquina de Turing”, concebido para a detecção de proposições lógicas sobre as quais não se possa definir como “falso ou verdadeiro”, dentro de um sistema axiomático formal.

 

A expressão “inteligência artificial” é citada pela Enciclopédia Britânica como “o termo freqüentemente aplicado ao desenvolvimento de sistemas dotados dos processos intelectuais característicos dos humanos, como a habilidade de raciocinar, descobrir significados, generalizar ou aprender a partir de experiências passadas”.

 

Ainda segundo a mesma, os “psicólogos geralmente não caracterizam a inteligência humana por somente um aspecto, mas pela combinação de diversas habilidades. As pesquisas em I.A. tem focado, principalmente, nos seguintes componentes da inteligência: aprendizado, raciocínio, resolução de problemas, percepção e o uso da linguagem”.

 

Os primeiros programas a apresentarem resultados qualificáveis como inteligentes, segundo as definições vigentes, foram codificados logo no início dos anos 50 do Século passado, como o programa de “jogo de damas” de Christopher Strachey da Universidade Oxford, executando em um Mark-I, ou o “Shopper”, de Anthony Oettinger, da Universidade Cambridge, em um computador EDSAC.

 

O Shopper vivia em um mundo artificial constituído por um centro de compras de 8 lojas, nas quais pedia-se que o programa realizasse compras. Passeando pelas lojas, o mesmo memorizava itens que encontrava, e a cada novo pedido de compra, a mesma era

executada mais rapidamente.

 

Nos Estados Unidos, em 1952, Arthur Samuel escreveu um programa baseado no “jogo de damas” de Strachey, para execução em um IBM 701, e o melhorou com a inclusão de mecanismos de aprendizado mecânico (rote learning) e generalização, chegando ao ponto de ganhar um jogo com um campeão de damas de Connecticut.

 

A partir daí, diversos ramos de desenvolvimento foram estabelecidos, como a computação evolucionária ou evolutiva (“evolutionary computing”), na qual os programas “salvam” ou “ativam” cópias melhoradas (mais bem-sucedidas), de si mesmos ou seus dados, usada na resolução de problemas, bastante similar aos atuais algoritmos genéticos; as redes neurais artificiais (“artificial neural

networks”) e perceptrons, simulações das redes neurais presentes nos sistemas nervosos dos seres vivos, nas quais atribuem-se “pesos” às entradas de dados (como linhas em uma tabela), de tal forma que o valor-alvo da linha seja sempre atingido para a grande maioria dos casos (conjunto de dados de entrada), usadas em previsões de novos cenários, como avaliações de crédito e detecções de fraude; os algoritmos de lógica difusa (“fuzzy logic”), apropriados para generalizações, além de um curioso processo, usado na resolução de problemas de matemática ou biologia, chamado de celular automata, na qual a solução é atingida. através de pequenos

passos, dados entre células vizinhas, dependentes das condições de satisfação a um número finito de variáveis atribuídas a cada uma.

 

Formando o corpo principal dos atuais estudos em I.A., estes algoritmos são, de fato, capazes de apresentar resultados que os qualifiquem como inteligentes, dadas as condições apropriadas, como seu uso em problemas ou situações para os quais foram desenvolvidos.

 

De uma forma geral, cada um a seu turno apresenta-se mais como uma prova da criatividade e inteligência humanas do que modelos efetivos de suas réplicas artificiais.

 

Atualmente, projetos internacionais e dispendiosos ainda estão em andamento, como o “Blue Brain” (“cérebro azul”), alusão à cor

tradicionalmente associada à IBM (International Business Machines, Co.), uma das participantes e financiadoras do projeto, junto com a École Polytechnique Fédérale de Lausanne (Suiça), no qual 8192 processadores tentarão, juntos, simular o modelo de funcionamento chamado de coluna neocortical, teoria nova da neurologia, segundo a qual os neurônios não seriam as “unidades fundamentais” da operação cerebral, mas sim as colunas formadas por grupos deles, dispostos perpendicularmente, e formadas por 6 camadas distintas, constituindo assim, uma unidade autônoma.

 

Todas essas iniciativas tomam por base a idéia de que a “inteligência” é um processo final, único, mensurável, e, para a maior parte das avaliações, exclusivo da espécie humana.

 

Creio que essa visão venha sendo, acima de todas as outras, a maior dificuldade na compreensão de sua verdadeira natureza.

Inteligências  -  Artificial

bottom of page