INTELIGENCIA ARTIFICIAL, robótica , cibernética

AVANCES CIENTÍFICOS DEL SIGLO XX: LA INTELIGENCIA ARTIFICIAL

 

 

 

 

El Pensamiento Lateral

Problemas de Ingenio

Matemáticos Famosos

Un Problema Muy Difícil

Juegos Flash De Ingenio

La Mujer Mas Inteligente Máquinas Simples

La inteligencia artificial constituye una rama de la informática que, en los últimos tiempos, está adquiriendo creciente importancia. Su campo de estudio lo constituyen los procedimientos necesarios para elaborar sistemas entre cuyas prestaciones figuren las que, tradicionalmente, se han considerado privativas de la inteligencia humana.

Los objetivos de la inteligencia artificial: Un ordenador ejecuta las órdenes para procesar datos que le son suministrados sin que disponga de capacidad para desarrollar razonamiento alguno acerca de dicha información. Frente a ello, la propuesta de la inteligencia artificial consiste en lograr que el procesador se adapte al método de razonamiento y comunicación humanos, para que pueda, no sólo poner en práctica los algoritmos que en él introduce el hombre, sino establecer los suyos propios para resolver problemas. El ordenador puede calcular el área de un polígono siempre que posea el programa que le proporciona el dato de la medida de uno de sus lados y la fórmula correspondiente para realizar dicha operación; la inteligencia artificial pretende que el procesador sea instruido en los principios de la geometría, para, por sí mismo, resolver la cuestión, a partir de un algoritmo de su propia creación. En definitiva, la inteligencia artificial explora los mecanismos que convierten al ordenador en una máquina pensante. La posibilidad de que esta hipótesis llegue a hacerse realidad es rechazada por numerosos expertos informáticos. En todo caso, se siguen explorando caminos y, día a día, se constatan los progresos.

La máquina pensante y los sistemas expertos

Uno de los primeros intentos de construir una máquina pensante se llevó a cabo en la década de los sesenta. El resultado fue la creación del GPS (General Problem Solver,; solucionador general de problemas), que podía resolver sencillos juegos, siempre que tuvieran un número reducido de reglas precisas. El fundamento del GPS era que un problemas podía resolverse partiendo del análisis de todas sus soluciones posibles y actuando con sucesivos intentos hasta hallar el camino adecuado. La cuestión que inmediatamente se planteó fue que, dada la ignorancia absoluta sobre determinado tema, la búsqueda de salidas requerirla de un tiempo inadmisible. Evidentemente, la aplicación del GPS a la resolución de problemas reales resultaba imposible.

Poco tiempo después se idearon los primeros sistemas expertos, especializados en determinados ámbitos; el más célebre, el Mycin, fue diseñado en 1974. Se aplicó al campo médico, concretamente al área de diagnosis, con resultados más que aceptables. Los sistemas expertos actúan en función de normas que regulan una relación con el usuario; su misión no es sustituir a la persona encargada de realizar determinada tarea, sino tener la posibilidad de operar sobre la base de sus conocimientos en ausencia de ella. El especialista es, lógicamente, el encargado de instruir al sistema experto, que dispondrá de una base de conocimientos acerca de un tema en cuestión. Dichos conocimientos adoptan la forma de principios a partir de los cuales el sistema deduce conclusiones, elabora juicios o toma decisiones. Además de la exigencia de que la respuesta del sistema experto venga dada en un intervalo de tiempo razonable, son también elementos fundamentales la capacidad de indicar el proceso de resolución efectuado y la posibilidad de adquirir conocimientos a partir de la propia experiencia. En este último caso, el sistema podrá aplicar los resultados obtenidos en situaciones análogas futuras.

Componentes de los sistemas expertos

Un sistema experto consta de cuatro elementos básicos: banco de conocimientos, motor de inferencia, módulo de adquisición e interfaz de interpretación. El primero de ellos es el conjunto de datos que posee el sistema. El motor de inferencia se define como el mecanismo de razonamiento, que opera en una fase intuitiva y en otra deductiva. Por su parte, el módulo de adquisición es el elemento que permite al especialista instruir al sistema transmitiéndole sus conocimientos. Finalmente, la interfaz de interpretación permite al sistema explicarse sobre el’ camino seguido hasta llegar a determinada conclusión.

Las redes neuronales

En la década de los cuarenta surgió la teoría de las redes neuronales que parte de una comparación entre el ordenador y el cerebro humano, y cuyo objetivo es imitar el funcionamiento del sistema neuronal. Podría decirse que el cerebro en el lenguaje informático, sería un sistema paralelo formado por ingentes cantidades de procesadores interconectados entre si: las neuronas. Veamos cómo actúan Cada neurona consta de

un cuerpo celular ramificado en una serie de fibras nerviosas, las dendritas; dentro d cuerpo celular se encuentra el núcleo, y de la célula sale el axón, una fibra larga que termina en filamentos nerviosos. Las células nerviosas están conectadas entre sí mediante millares de sinapsis —unidas a las dendritas o directamente al cuerpo celular— El mecanismo de razonamiento se verifica cuando se produce una transmisión de señales químicas entre las células nerviosas encargadas de procesar la información Así las neuronas reciben señales de otras células; a continuación, procesan dicha información y, en determinadas condiciones al alcanzar el umbral especifico, transmiten la señal correspondiente -envían el mensaje— a través de su axón y por medio de la sinapsis. Si bien el cerebro es muy superior en determinadas tareas, que realiza a mayor velocidad que la máquina , el ordenador dispone de una capacidad de memorización muy superior y está Preparado para realizar otras operaciones en tiempos que resultan mínimos con relación a los empleados por la mente humana.

Siguiendo el proceso de funcionamiento de las neuronas cerebrales los investigadores McCulloch y Pitts idearon en 1943 el modelo que lleva su nombre. El modelo de McCulloch y Pitts se realiza a partir de una red de gran tamaño, formada por elementos simples cuya misión es el cálculo de sencillas funciones —4a neurona únicamente debe realizar la suma ponderada de los impulsos de otras neuronas, un programa básico—. Sin embargo, habitualmente, un número reducido de calculadores ejecuta programas de enorme complejidad; en el transcurso del proceso, un pequeño error puede repercutir fatalmente en el resultado. Por otra parte, las neuronas cerebrales se comunican con una velocidad varios millones de veces más lenta que la velocidad de operación de los circuitos electrónicos. Por el contrario, el cerebro humano procesa determinado tipo de datos, como imágenes o sonidos, mucho más rápidamente que el ordenador.

EL PRINCIPIO DE INCOMPATIBILIDAD

Un paso fundamental en la aproximación entre el modo de razonamiento humano y el de la máquina es comprender que, en situaciones con determinado grado de complejidad, no existe una solución única, sino que pueden aplicarse métodos diversos. La mente del ser humano es capaz de ponderar las ventajas e inconvenientes que ofrece cada uno y, en consecuencia, tomar una decisión. Normalmente, el ordenador se encuentro determinado hacia un único camino. El principio de incompatibilidad de los sistemas complejos fue formulado en 1972 por Zadeh. Expresa el hecho de que a medida que se profundizo en el estudio de las propiedades características de un determinado sistema, mayor riesgo de imprecisión y error existe para su descripción. Al aumentar la complejidad, las posibilidades de expresamos con exactitud y pertinencia disminuyen, en razón del número creciente de factores que intervienen en nuestro análisis.

La lógica ambigua

A mediados de la década de los sesenta surgió una nueva teoría, la lógica ambigua, denominada así por tratarse de una disciplina opuesta a la lógica binaria, que opera en función de pares de datos contrarios: si/no, verdadero /falso, 1/O. En el marco de la lógica ambigua, el paso de un valor a otro se realiza de manera gradual, sin que exista una línea de separación nítida. No resulta adecuado trabajar con valores numéricos —1 y O—, propios de la lógica binaria, sino con variables lingüísticas. En definitiva, se trata de operar en sistemas donde los fenómenos no se describen analíticamente, sino que son caracterizados de modo descriptivo o lingüístico. La lógica ambigua trata de asignar valores de verdad a expresiones a las que no pueden asociarse unívocamente las consideraciones verdadero o falso. En contra de lo que pudiera pensarse a simple vista, las aplicaciones de la lógica ambigua no implican un descenso en los niveles de control y fiabilidad en aquellos campos en que se ponen en práctica. Si bien estas teorías han tenido un desarrollo notable en ámbitos orientales, en Occidente su aceptación ha sido mucho más costosa.

UN EJEMPLO DE APLICACIÓN DE LA LÓGICA AMBIGUA

En cualquier sistema que trabajo con conjuntos ambiguos, es necesario definir las variables lingüísticas ambiguos Vinculadas entre sí por una relación causa/efecto —la primera variable se denomina antecedente la segunda, consecuente—, los conjuntos ambiguos —X e Y— en los que quedan incluidas dichas variables y las reglas de inferencia ambigua, con fórmulas del tipo «si X entonces Y».

En el caso de que haya que proyectar un mecanismo que controle la calefacción en una vivienda, se opero con dos variables; la primera, denominada A mide la temperatura de la caso; la segunda, B, describe la potencia que ha de proporcionar la caldera. Cada variable lleva aparejado un conjunto donde, además de los Valores que puede asumir, se describe el grado de ambigudod0 pertinencia de cada valor —este grado se expresa gráficamente en el eje de ordenadas de un gráfico cartesianos.

Cada conjunto ambiguo comprende una serie de expresión que constituyen subsistemas; por ejemplo, para A, podrían darse las siguientes: fría, fresca, templada, alta y sofocante. Para B se establece una escala de cero a cien para medir la potencia de la caldera, al tiempo que se definen los correspondientes subsistemas de valores que puede asumir: apagada, lenta, normal, rápida y expedita. A continuación es necesario proporcionar la secuencia de reglas ambiguas, emparejando elementos de los subsistemas dados: temperatura fría/caldera expedita; temperatura templada/caldera normal, temperatura sofocante/caldera apagada etc.

Fuente Consultada: Enciclopedia Universal - Espasa-Calpe - Tomo 23

Biografías - Todo Argentina - Maravillas del Mundo - Historia Universal - Juegos Pasatiempo

Sonico Meneame

Si te gusta esta página, votá!

(+) Tips o Sugerencias Sedna

 Autor del Diseño, Mantenimiento y Armado Usando Las Fuentes Consultadas