Loading...
INTELIGENCIA ARTIFICIALLoading...
GUILLERMO RUIZ![](/_next/static/media/shadow-light.2e386fee.png)
![](/_next/static/media/shadow-brighten.a2a9d200.png)
INDICE GENERAL
1.1.1 Clasificación de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Historia de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Modelos de Inteligencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.4 Sistemas que Piensan como Humanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.5 Sistemas que Actúan como Humanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.6 Sistemas que Piensan Racionalmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.7 Sistemas actuantes racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.8 El test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.9 Aplicaciones y herramientas derivadas de la Inteligencia Artificial . . . . . . . . . . . . . . . .
1.1.10 Lenguajes de Programación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.11 Aplicaciones y Sistemas Expertos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.12 Areas de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Historia de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Modelos de Inteligencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.4 Sistemas que Piensan como Humanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.5 Sistemas que Actúan como Humanos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.6 Sistemas que Piensan Racionalmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.7 Sistemas actuantes racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.8 El test de Turing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.9 Aplicaciones y herramientas derivadas de la Inteligencia Artificial . . . . . . . . . . . . . . . .
1.1.10 Lenguajes de Programación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.11 Aplicaciones y Sistemas Expertos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.12 Areas de la Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Clasificación de la Inteligencia Artificial
La escuela clásica dentro de la IA, utiliza representaciones simbólicas basadas en un
número finito de primitivas y de reglas para la manipulación de símbolos (por ejemplo,
redes semánticas, lógica de predicados, etc.), los cuales fueron y siguen siendo parte
central de dichos sistemas.
Otro tipo de representación es el llamado sub-simbólico, el cual utiliza representaciones
numéricas (o sub-simbólicas) del conocimiento. Aunque la mayor parte de los libros
de IA (Hebb, 1949 , Minsky and Papert 1969) sólo enfatizan el trabajo realizado por
Rosenblatt y Widrow en la década de los 50’s con redes neuronales en este tipo de
representación.
El enfoque sub-simbólico de la IA se caracteriza por crear sistemas con capacidad de
aprendizaje. Éste se puede obtener a nivel de individuo imitando el cerebro (Redes
Neuronales), a nivel de especie, imitando la evolución. Hasta hace poco era común
hablar de Algoritmos Genéticos (AG) en general, en vez de identificar diferentes tipos
de AE, ya que el resto de los algoritmos se pueden interpretar como variaciones o mejoras
de los AG.
La escuela clásica dentro de la IA, utiliza representaciones simbólicas basadas en un
número finito de primitivas y de reglas para la manipulación de símbolos (por ejemplo,
redes semánticas, lógica de predicados, etc.), los cuales fueron y siguen siendo parte
central de dichos sistemas.
Otro tipo de representación es el llamado sub-simbólico, el cual utiliza representaciones
numéricas (o sub-simbólicas) del conocimiento. Aunque la mayor parte de los libros
de IA (Hebb, 1949 , Minsky and Papert 1969) sólo enfatizan el trabajo realizado por
Rosenblatt y Widrow en la década de los 50’s con redes neuronales en este tipo de
representación.
El enfoque sub-simbólico de la IA se caracteriza por crear sistemas con capacidad de
aprendizaje. Éste se puede obtener a nivel de individuo imitando el cerebro (Redes
Neuronales), a nivel de especie, imitando la evolución. Hasta hace poco era común
hablar de Algoritmos Genéticos (AG) en general, en vez de identificar diferentes tipos
de AE, ya que el resto de los algoritmos se pueden interpretar como variaciones o mejoras
de los AG.
Enfoques de clasificación de la Inteligencia Artificial
![](https://assets.api.bookcreator.com/zF8Un8eATBfjH9iCA1bp8VtJSDB2/books/uep13fCqR4iuEBENpGNH4g/assets/jwKrdSbBTr-xjUW0A3VMHQ.jpeg?width=701&height=302)
En la actualidad, la IA empieza a extender sus áreas de investigación en diversas di-
recciones y trata de integrar diferentes métodos en sistemas a gran escala, en su afán
por explotar al máximo las ventajas de cada una de estas en una gran cantidad de
áreas del conocimiento ya que se realizan aplicaciones en una gran cantidad de ares del
conocimiento como son la medicina, biología, ingeniera, educación, etc..
En la actualidad existen nuevas técnicas que utilizan el enfoque sub-simbólico como son
los algoritmos de optimización con colonias de hormigas, sistema inmune, cúmulo de
partículas, entre otros, los cuales están inspirados en los comportamientos emergentes
de la naturaleza.
recciones y trata de integrar diferentes métodos en sistemas a gran escala, en su afán
por explotar al máximo las ventajas de cada una de estas en una gran cantidad de
áreas del conocimiento ya que se realizan aplicaciones en una gran cantidad de ares del
conocimiento como son la medicina, biología, ingeniera, educación, etc..
En la actualidad existen nuevas técnicas que utilizan el enfoque sub-simbólico como son
los algoritmos de optimización con colonias de hormigas, sistema inmune, cúmulo de
partículas, entre otros, los cuales están inspirados en los comportamientos emergentes
de la naturaleza.
1.1.2 Historia de la Inteligencia Artificial
Desde tiempos inmemoriales, el hombre ha buscado la materialización del deseo de crear
seres semejantes a él; pasando por la creación de artefactos con aspecto, movimientos
y hasta comportamiento similar al que presentamos los seres humanos. El ruso Isaac
Asimov (1920-1992), escritor e historiador, narraba sobre objetos y situaciones que en
su tiempo eran ciencia-ficción; sin embargo, con el paso del tiempo, muchas de ellas se
han ido volviendo realidad. Asimov, en su libro Runaround describió lo que el día de
hoy son las tres leyes de la robótica. Su obra literaria serviria como motivación para que
los científicos e ingenieros trataran de hacerla realidad.
En los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el
Perceptrón de Rossenblatt. Este era un sistema visual de reconocimiento de patrones
en el cual se aunaron esfuerzos para que se pudieran resolver una gama amplia de
problemas, pero estas energías se diluyeron enseguida.
Aproximadamente en ese tiempo, el matematico inglés Alan Turing (1912-1954) propusouna prueba con la finalidad de demostrar la existencia de “inteligencia” en un dispositivo
no biológico. Esta prueba conocida como “test de Turing” se fundamenta en la hipótesis
Desde tiempos inmemoriales, el hombre ha buscado la materialización del deseo de crear
seres semejantes a él; pasando por la creación de artefactos con aspecto, movimientos
y hasta comportamiento similar al que presentamos los seres humanos. El ruso Isaac
Asimov (1920-1992), escritor e historiador, narraba sobre objetos y situaciones que en
su tiempo eran ciencia-ficción; sin embargo, con el paso del tiempo, muchas de ellas se
han ido volviendo realidad. Asimov, en su libro Runaround describió lo que el día de
hoy son las tres leyes de la robótica. Su obra literaria serviria como motivación para que
los científicos e ingenieros trataran de hacerla realidad.
En los años 50 cuando se logra realizar un sistema que tuvo cierto éxito, se llamó el
Perceptrón de Rossenblatt. Este era un sistema visual de reconocimiento de patrones
en el cual se aunaron esfuerzos para que se pudieran resolver una gama amplia de
problemas, pero estas energías se diluyeron enseguida.
Aproximadamente en ese tiempo, el matematico inglés Alan Turing (1912-1954) propusouna prueba con la finalidad de demostrar la existencia de “inteligencia” en un dispositivo
no biológico. Esta prueba conocida como “test de Turing” se fundamenta en la hipótesis
de que si una máquina se comporta en todos aspectos como inteligente, entonces debe
ser inteligente (Alan Turing, 1950). Como consecuencia de esta prueba, muchos de los
esfuerzos de los investigadores en ese tiempo, se enfocaron en la redacción de sistemas
de inteligencia artificial lingüísticos, lo que marcó el nacimiento de los conocidos como
“chatbots” (robots de plática). A pesar de que ya se habían realizado investigación sobre
el diseño y las capacidades de las entidades no biológicas, el trabajo de Alan Turing de
1950, concentró el interés de la comunidad científica en el desarrollo de las “máquinas
inteligentes”. Dos de las contribuciones más importantes de Alan Turing son el diseño de
la primera computadoracapaz de jugar al ajedrez y el establecimiento de la naturaleza
simbólica de la computación (ITAM, 1987).
Posteriormente, en 1957 Alan Newell y Herbert Simon, que trabajaban en la demostra-
ción de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS
(General Problem Solver). Este era un sistema donde el usuario definía un entorno en
función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este
programa fue redactado mediante el uso de IPL (Information Processing Languaje) y es
considerado como el primer programa en el que se separó la información relacionada con
el problema de la estrategia empleada para darle solución. El GPS se basó en el trabajo
previamente desarrollado de sus autores sobre máquinas lógicas y aunque fue capaz de
resolver problemas como el de “Las Torres de Hanoi”; no pudo resolver problemas ni
del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas
heurísticas que la conducían hasta el destino deseado mediante el método del ensayo
y el error (Newell y Simon ,1961). Varios años más tarde; en los años 70, un equipo
de investigadores dirigido por Edward Feigenbaum comenzaría a elaborar un proyecto
para resolver problemas de la vida cotidiana (problemas más concretos); dando origen
a lo que se conocería como los sistemas expertos.
En 1958 McCarthy desarrolló un lenguaje de programación simbolica cuando estaba
trabajando en el MIT; dicho lenguaje es utlilizado aún en la actualidad y es conocido
como LISP. El nombre LISP deriva de “LISt Processing” (Procesamiento de LIStas).
Las listas encadenadas son una de las estructuras de datos importantes del Lisp.
En el año 1965 Joseph Weizenbaum construyo el primer programa interactivo el cual
ser inteligente (Alan Turing, 1950). Como consecuencia de esta prueba, muchos de los
esfuerzos de los investigadores en ese tiempo, se enfocaron en la redacción de sistemas
de inteligencia artificial lingüísticos, lo que marcó el nacimiento de los conocidos como
“chatbots” (robots de plática). A pesar de que ya se habían realizado investigación sobre
el diseño y las capacidades de las entidades no biológicas, el trabajo de Alan Turing de
1950, concentró el interés de la comunidad científica en el desarrollo de las “máquinas
inteligentes”. Dos de las contribuciones más importantes de Alan Turing son el diseño de
la primera computadoracapaz de jugar al ajedrez y el establecimiento de la naturaleza
simbólica de la computación (ITAM, 1987).
Posteriormente, en 1957 Alan Newell y Herbert Simon, que trabajaban en la demostra-
ción de teoremas y el ajedrez por ordenador logran crear un programa llamado GPS
(General Problem Solver). Este era un sistema donde el usuario definía un entorno en
función de una serie de objetos y los operadores que se podían aplicar sobre ellos. Este
programa fue redactado mediante el uso de IPL (Information Processing Languaje) y es
considerado como el primer programa en el que se separó la información relacionada con
el problema de la estrategia empleada para darle solución. El GPS se basó en el trabajo
previamente desarrollado de sus autores sobre máquinas lógicas y aunque fue capaz de
resolver problemas como el de “Las Torres de Hanoi”; no pudo resolver problemas ni
del mundo real, ni médicos ni tomar decisiones importantes. El GPS manejaba reglas
heurísticas que la conducían hasta el destino deseado mediante el método del ensayo
y el error (Newell y Simon ,1961). Varios años más tarde; en los años 70, un equipo
de investigadores dirigido por Edward Feigenbaum comenzaría a elaborar un proyecto
para resolver problemas de la vida cotidiana (problemas más concretos); dando origen
a lo que se conocería como los sistemas expertos.
En 1958 McCarthy desarrolló un lenguaje de programación simbolica cuando estaba
trabajando en el MIT; dicho lenguaje es utlilizado aún en la actualidad y es conocido
como LISP. El nombre LISP deriva de “LISt Processing” (Procesamiento de LIStas).
Las listas encadenadas son una de las estructuras de datos importantes del Lisp.
En el año 1965 Joseph Weizenbaum construyo el primer programa interactivo el cual
consistia en que un usuario podia sostener una conversación en ingles con una compu-
tadora utilizando una comunicación por escrito, este sistema fue denominado ELIZA.
El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma
de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El
Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente
medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales
(como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San
Francisco, EEUU)
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan
sistemas expertos más refinados, como por ejemplo el EURISKO. Este programa per-
fecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.
También podemos destacar la importante intervención de Arthur Samuel, que desarrollo
un programa de juego de damas capaz de aprender de su propia experiencia; Selfridge,
que estudiaba el reconocimiento visual por computadora.
A partir de este grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon
tadora utilizando una comunicación por escrito, este sistema fue denominado ELIZA.
El primer sistema experto fue el denominado Dendral, un intérprete de espectrograma
de masa construido en 1967, pero el más influyente resultaría ser el Mycin de 1974. El
Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente
medicación, todo un logro en aquella época que incluso fueron utilizados en hospitales
(como el Puff, variante de Mycin de uso común en el Pacific Medical Center de San
Francisco, EEUU)
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
Artificial, tales como el LISP o el PROLOG. Es en esta época cuando se desarrollan
sistemas expertos más refinados, como por ejemplo el EURISKO. Este programa per-
fecciona su propio cuerpo de reglas heurísticas automáticamente, por inducción.
También podemos destacar la importante intervención de Arthur Samuel, que desarrollo
un programa de juego de damas capaz de aprender de su propia experiencia; Selfridge,
que estudiaba el reconocimiento visual por computadora.
A partir de este grupo inicial, se formaron dos grandes “escuelas” de I.A.: Newell y Simon
lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales).
McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de Massachusett
(MIT), centrándose más en que los productos del procesamiento tengan el carácter de
inteligente, sin preocuparse por que el funcionamiento o la estructura de los componentes
sean parecidas a los del ser humano.
Ambos enfoques sin embargo, persiguen los mismos objetivos prioritarios de la I.A.:
“entender la inteligencia natural humana, y usar máquinas inteligentes para adquirir
conocimientos y resolver problemas considerados como intelectualmente difíciles”.
modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más
posible a la del cerebro (lo que derivó en la postura “conexionista” y en las “redes
neuronales” artificiales).
McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de Massachusett
(MIT), centrándose más en que los productos del procesamiento tengan el carácter de
inteligente, sin preocuparse por que el funcionamiento o la estructura de los componentes
sean parecidas a los del ser humano.
Ambos enfoques sin embargo, persiguen los mismos objetivos prioritarios de la I.A.:
“entender la inteligencia natural humana, y usar máquinas inteligentes para adquirir
conocimientos y resolver problemas considerados como intelectualmente difíciles”.