REDcientifica

Inteligencia humana artificial
Una posibilidad real
476 visitas desde el 23/11/2016
Sergio Aranda Klein



A lo largo del tiempo innumerables personas han pensado que tal vez algún día cierto tipo de máquinas podrían llegar a desplazar al ser humano en muchas de sus funciones cotidianas (aparte de lavar ropa, calentar comida, realizar cálculos, etc.), e incluso hasta reemplazarlos en contra de su voluntad en otras cuestiones más importantes y significativas para el conjunto de la sociedad (Complejo de Frankenstein de Isaac Asimov). Sin embargo, para que las máquinas llegasen a demostrar tal nivel de autonomía e independencia, deberían primero alcanzar la capacidad de actuar por iniciativa propia, tal como lo hacemos los humanos. Pero no hay de qué preocuparse, por ahora los enormes avances tecnológicos en robótica e inteligencia artificial lo único que han logrado es que las nuevas máquinas cumplan funciones cada vez más complejas, no obstante ese tipo de complejidad nada tiene que ver con la que hace que el cerebro de los seres humanos funcione de la forma como lo hace.

En lo esencial las máquinas siguen haciendo exactamente lo mismo que desde el principio, esto es, servir de instrumentos y herramientas para realizar todo aquello que es posible imaginar y que, sin embargo, resulta difícil o inalcanzable recurriendo solo a las limitadas capacidades fisiológicas humanas. En resumen, las máquinas hacen, con mayor o menor éxito, lo que los seres humanos quieren o desean que hagan. Ninguna de las ya construidas, o que se estén proyectando, incluye o considera la posibilidad, aunque sea remota, de que estas adquieran la capacidad para decidir por iniciativa propia lo que deben hacer (en base a su experiencia).

En tanto las máquinas sigan dependiendo de quienes las construyen, programen, y les suministren datos o instrucciones, no dejarán de ser instrumentos de la voluntad de sus constructores y operadores. A pesar de esto, en el imaginario colectivo y sobre todo en el representado por la ciencia ficción, se ha instalado la idea de que la eventual falla en sistemas de alta complejidad puede dar lugar al surgimiento de terribles y destructivos monstruos con autonomía y capacidad de decisión propias. La cuestión es que la mera complejidad, por sí misma, es muchas veces vista como un potencial para el surgimiento de la autonomía e incluso hasta para la generación (¿espontánea?) de inteligencia independiente, tal como más de alguien ha pensado que podría ocurrir con la Internet. La realidad es bien distinta, la implicación directa e inmediata ante la existencia de una falla en cualquier sistema, sea por la causa que sea, es la pérdida del control respecto de lo que se supone deben y pueden hacer (lo cual no deja de ser peligroso), pero, pareciera absurdo pensar que un sistema, por el solo hecho de fallar, pueda adquirir nuevas y distintas capacidades de aquellas con las cuales originalmente se programó. A menos claro, que terceras personas adquieran de manera fraudulenta ese control, pero en este caso las fallas serían de seguridad, no de las máquinas.


¿Quieres saber más?
Regístrate para leer más artículos como este

Para que efectivamente las máquinas puedan escalar hacia la autonomía primero debe dotárselas del mismo mecanismo, o uno equivalente, del que hace que los seres humanos sean capaces de imaginar y actuar en consecuencia. Sin embargo hasta ahora ese esquivo mecanismo pareciera ser indescifrable, incluso hasta para explicar conceptualmente los propios procesos cerebrales. Así que, si no sabemos cuales son los principios que rigen nuestra autonomía e imaginación, mal podrían estarse recreando en otros sistemas.

La inteligencia humana depende esencialmente de la imaginación y creatividad, en cambio la inteligencia artificial depende esencialmente de una creciente capacidad de computo y de conjuntos de datos cada vez mayores y diversos. En resumen, la inteligencia artificial actual no tiene nada que ver con la inteligencia humana aún cuando aquella sea capaz de generar muchas respuestas automáticas que puedan imitar y hasta confundirse con las humanas (test de Turing).

Entonces al hablar de inteligencia artificial hay que especificar claramente a que clase de inteligencia se está haciendo referencia, a la de las máquinas actuales, que hacen exactamente lo que están programadas para hacer, o bien a las que eventualmente se construirían al reproducir artificialmente los procesos que dan lugar al surgimiento de la inteligencia humana. En este segundo caso los sistemas a desarrollar deberían ser tales que reprodujeran desde el principio la forma en que se construye la información humana, esto es, partiendo desde la interacción con los elementos del entorno, de modo muy semejante al que empleamos nosotros en el proceso de aprendizaje. Este paso fundamental es sólo el principio, pero es clave, porque tiene que ver con la forma en que interpretamos y consideramos la información, y en este caso tendríamos que hablar de Inteligencia humana artificial.

Como vemos un aspecto crucial en el planteamiento conceptual del problema está en el origen y manejo de la información, puesto que en ambos modelos (sistemas) se genera de forma diferente y cumple funciones distintas. En la inteligencia artificial actual los datos son proporcionados a los sistemas de cómputo directamente por programadores o usuarios, o bien por otros subsistemas automatizados que los generan automáticamente. La información resultante depende de las reglas y algoritmos que se hayan programado para procesar esos datos. En todo este proceso el hardware no es más que el soporte material para las operaciones, y más allá de la activación de algunos actuadores u otros mecanismos equivalentes, como resultado del tipo de información obtenida, el sistema físico en su conjunto no se ve comprometido por el valor de esta información. Dicho de otra manera, los sistemas son independientes o “insensibles” al tipo de datos que procesan y la información que producen, y, aunque podría estar demás volver a repetirlo, hay que insistir en que desde el principio todas las máquinas existentes han sido construidas para que su operación y resultados resuelvan problemas humanos (incluido el entretenimiento), y no los de las máquinas mismas, las que por definición no tienen sensibilidad respecto de las operaciones que realizan, ni mucho menos intereses propios.





La información orgánica

En el caso de los seres humanos los datos (básicos) son obtenidos desde el entorno inmediato por los órganos sensoriales, así que estos siempre están referidos al contexto espacio temporal en el que se encuentra y afectan al observador, y si bien los objetos percibidos determinan el tipo de señal que generarán los órganos sensoriales, los datos propiamente tales corresponderán a los valores de estas señales, por lo tanto es el organismo en definitiva el que los produce y el mismo que posteriormente los transformará en información en los procesos cerebrales. Con lo que resulta que todo el proceso implicado en la generación de información orgánica es interno, siendo los elementos del entorno meros activadores.

Los datos (señales sensoriales) se transforman en información al interior del organismo (cerebro) cuando sus valores sean capaces de hacer que determinadas neuronas induzcan la emisión glandular de sustancias estimulantes, generando en este proceso estados de alteración que corresponden a lo que llamamos sensaciones. Entonces, desde un punto de vista estrictamente biológico (y no filosófico), las señales sensoriales lo único que pueden provocar en el organismo son sensaciones (eso sí, en muchos niveles diferentes). Ahora bien, las sensaciones son una parte, o más bien, la primera en el proceso de respuesta ante una señal sensorial significativa. La segunda parte no es más que la consecuencia directa y necesaria de la primera, y tiene que ver con el efecto que sigue a lo que llamamos estado de alteración. Digamos que si sensación es el nombre que le damos a los efectos somáticos o “anímicos”, provocados por las sustancias estimulantes, su consecuencia directa es una manifestación conductual, puesto que resulta evidente que si algo se “siente”, se verá reflejado en la ejecución de conductas. Ejemplos, si se ve algo interesante (porque llama la atención, es significativo) se fijará la mirada en ello; o si de repente se siente una picazón, será casi imposible evitar rascarse, y aunque se intente, ese mismo esfuerzo también dependerá de otras conductas, etc. El caso es que cualquier señal sensorial significativa no solo provocará los efectos somáticos normal y previsiblemente asociados a las sensaciones sino que simultáneamente activará alguna forma de conducta, desde algo tan leve como enfocar la mirada, hasta algo tan manifiesto como salir corriendo.

Ahora bien, dónde se halla el origen mismo de la capacidad de producir sensaciones y consecuentemente conductas, pues se encuentra en la programación genética de las neuronas que han evolucionado para activar sensaciones ante determinadas señales sensoriales.

Finalmente podemos resumir diciendo que en el ser humano la información está en las respuestas sensación-conducta, o dicho de otro modo, la información es igual a la significación. De esto se concluye que aquellos objetos que no provocan señales sensoriales significativas resultarán indiferentes (al menos en ese momento) y por lo tanto no generarán información (o nueva información), lo contrario ocurrirá con aquellos objetos que sí desencadenen señales sensoriales significativas.

Esta información es suficiente para que los individuos de la especie reconozcan y actúen en relación a cada objeto experimentado, y puedan enfrentar aquellos por explorar. Aunque pudiese no parecerlo, las características perceptibles de los objetos y sus partes son todo lo que (en principio) podemos saber de ellos. Haga usted el simple ejercicio de pensar en algo, y, en el instante en que se activen las redes neuronales de sus recuerdos, revivirá automáticamente algunas de las características perceptibles con que estos están asociados. No importa que piense en objetos materiales, en ideas, o en creencias, todo lo que pueda “extraer” de la memoria en el proceso de pensar, constituirán expresiones de sus reacciones sensibles, frente a los componentes perceptibles que le dan forma o contenido a estos recuerdos (las representaciones). Hasta la idea de Dios requiere de las sensaciones que provoca una imagen o un símbolo tangible para poder recordarlo y pensar en él. De este modo todos los recuerdos podrán ser reducidos a sus partes, las cuales no son más que sensaciones individuales vinculadas entre sí, tales como las de, color, olor, sabor, sonido, forma, textura, tamaño, calor o frío, incluso otras un poco más sutiles como, luminosidad, humedad, altura, dureza, plasticidad, proporcionalidad, brillo, y un largo etcétera. Por su parte las conductas permitirán exteriorizar (relatar, exponer) la significación de cualquier recuerdo, como por ejemplo, con los sonidos del habla, o los movimientos requeridos por el dibujo o la escritura, etc. Sin embargo el lenguaje interno del cerebro, que hace posible tales manifestaciones conductuales, es precisamente el de las sensaciones.

El par sensación-conducta tiene el potencial de activar una enorme variedad de conductas, y dependiendo del tipo de sensaciones podemos dividirlas en conductas de acercamiento, cuando la sensación es “buena”, “gustosa”, etc. o de alejamiento cuando la sensación es “mala”, “desagradable”, etc. Esta definición es nominal, puesto que una conducta de acercamiento puede ser simplemente sonreírle a alguien, o darle una inflexión amable a la voz, en cambio una conducta de alejamiento podría ser tan sutil como apartar la mirada, como dijimos, la variedad de conductas posibles son muchas.

Tal vez parezca difícil creer que algo tan básico y aparentemente simple, constituya la base de lo que llamamos conocimiento, sin embargo esto se debe en principio a que históricamente en los estudios acerca de la “mente” se han empleado para el análisis ejemplos de conductas complejas en individuos adultos, en los cuales la combinación y recombinación de información básica a lo largo del tiempo y la experiencia, ha dado paso a intrincadas redes de recuerdos, en los que, por lo tanto, resulta muy difícil rastrear y apreciar el origen de la información básica.

En cambio si se observan con atención las experiencias sensoriales y respuestas conductuales en los bebés no queda más que concluir que todo lo que ellos pueden “saber” de los objetos que exploran, es que les llaman la atención, nada más. Y a partir de los recuerdos (de las sensaciones) en la interacción con esos objetos, es que puede decirse que los conocen. Este es el comienzo del desarrollo ontogénetico en la formación de la información compleja o conocimiento.

En resumen: el efecto producido por el par sensación-conducta constituye literalmente la guía, tanto de los objetivos a alcanzar (los gustosos en general), como de los caminos a seguir (los agradables en general), por supuesto que estos son los que nos inducen a avanzar: A retroceder lo harán sus opuestos (“el yin y el yang”). Avance y retroceso es la única manera posible de simplificar y reducir este proceso para entenderlo como binario, sin embargo la variabilidad de esta direccionalidad es tan amplia y tiene tantas formas y matices que su ocurrencia solo pueden explicarse por respuestas de tipo analógicas.

Un último dato importante a tener muy en cuenta; dado que el potencial informativo de las neuronas que activan sensaciones es de origen genético, los efectos que producen son totalmente automáticos, no hay elección, voluntad, racionalidad, ni verdad, en ello. Nada en el organismo es más autónomo que la capacidad de estas neuronas, ni siquiera una hipotética, emergente, o epifenoménica mente. Así que sí, existe un elemento de función automática, el más importante de todos, y este automatismo es una condición sine qua non para poder diseñar un sistema autónomo.

Hasta aquí hemos visto de la manera más breve y concisa en que es posible hacerlo, en qué consiste la información en términos del funcionamiento orgánico de los seres humanos, y además cómo es que opera para guiarlos en su camino. A pesar de lo mucho que simplificamos la exposición de los procesos orgánicos asociados con el funcionamiento cerebral, lo expuesto es suficiente, por ahora, para continuar con lo que realmente nos interesa, la construcción de la inteligencia artificial humana. (Los procesos descritos se basan el las hipótesis contenidas en nuestra Teoría de la Función Cerebral).

Inteligencia humana artificial

Incluso los que sueñan con desarrollar y aplicar la inteligencia artificial fuerte (la humana), piensan en futuros robots con inteligencia humana como si fuesen otra máquina más, solo que más compleja, es decir, que de todos modos sean herramientas. Pero resulta que hay un principio orgánico muy elemental que, al parecer, no han tenido demasiado en cuenta, y es que los organismos han evolucionado para resolver su sobrevivencia, no para favorecer la de otros, aunque en el camino, y sin “querer”, igual lo hagan a través de relaciones simbióticas o por mera conveniencia. Construir un verdadero androide implica que debe pensar como humano, y para eso no hay más solución que replicar todos los procesos cerebrales que hacen al ser humano lo que es, con las consecuencias implícitas. El caso es que los propios seres humanos tampoco estamos tan alegremente dispuestos a servir a otros porque sí, como si fuésemos máquinas.

La operación del proceso sensación-conducta básicamente guía a los seres humanos a obtener satisfacciones. Muestra de ello es que una parte significativa de nuestras actividades tienen que ver con el ocio, la entretención, la vida social, y en fin, todo aquello que pueda causar agrado o placer. A las obligaciones que no producen ningún agrado, pero que igual hay que cumplir para evitar que se vuelvan más desagradables todavía, intentamos dedicarle el menor tiempo posible. En todo caso, el que las actividades sean agradables o no, no tiene que ver con su productividad, puesto que pueden ser ambas cosas a la vez.

Reproducir las funciones cerebrales humanas en sistemas artificiales implica que al dotarlos de los mismos procesos, básicamente querrán hacer cosas similares a las humanas. No es posible creer de buenas a primeras que eventuales androides con inteligencia humana, serán automáticamente soldados obedientes o técnicos altamente calificados y eficientes. Es claro que esa expectativa solo es producto del desconocimiento sobre como operan los procesos cerebrales.

Hay que reiterar que la inteligencia humana artificial no tiene nada que ver con la inteligencia artificial actual, definitivamente los seres humanos, ni nada que se nos parezca, podrán hacer todo lo que si pueden computadoras dedicadas y programas altamente especializados, pensar lo contrario es ciencia ficción. Así como las máquinas industriales multiplican miles de veces la fuerza y resistencia humana, las computadoras hacen lo propio con la memoria y capacidad de cómputo.

Podemos incluso hacer un paralelo entre los sistemas biológicos y la inteligencia artificial actual diciendo que la programación de esta última equivale a las respuestas instintivas en los organismos, esto es, conductas automáticas dependientes de instrucciones precisas y específicas que son activadas ante la percepción de determinadas condiciones contextuales. Sin embargo lo que generalmente entendemos por inteligencia a secas, es lo opuesto a la activación de respuestas conductuales automáticas (preprogramadas), así que, haciendo otra analogía, podríamos decir que el actual desarrollo de la inteligencia artificial se encuentra en una etapa evolutiva anterior al surgimiento de la inteligencia humana (y de otros animales), la cual, sin alcanzar la gran perfección ni eficacia propia del automatismo de las respuestas instintivas, sí permite la creación de nuevas y originales respuestas conductuales ante circunstancias para las cuales no se tienen todas las instrucciones previas sino la base para construirlas.

Una máquina con inteligencia artificial humana sería básicamente un ser humano artificial, e independientemente de su forma, sus procesos cerebrales sí tendrían que ser sumamente parecidos a los que hemos mencionado hasta ahora, los cuales consideramos como punto de partida básico. La memoria, que es lo segundo más importante, se forma con las mismas neuronas de las que hemos hablado, así que eso tampoco es un problema muy distinto del primero.

El caso es que es que al igual que los seres humanos, un androide que funcione con sus mismos principios operaría para satisfacer sus “necesidades” (aunque sean simplemente simuladas). Esto es importante porque la inteligencia se desarrolla y expresa durante los procesos de búsqueda y exploración de objetos y situaciones que eventualmente satisfarán esas necesidades. El mecanismo de sensación-conducta es solo de discriminación y formación de la memoria, no es el principal activador de los procesos de búsqueda.

Lo que llamamos inteligencia, que es la capacidad para resolver y encontrar soluciones (ese es el principio básico) que satisfagan a quien realiza la búsqueda (aquí se encuentra el factor subjetivo, pues no todo el mundo se satisface con lo mismo) depende entonces de que la exploración sensorial tenga un sentido utilitario para quien la realiza y aprende de ella, y sin el sentido de urgencia propio de las necesidades, las búsquedas quedan reducidas básicamente a la satisfacción de “gustos”, lo cual limita las posibilidades del aprendizaje (piense en la gente que nunca ha tenido o querido esforzarse para conseguir algo).

Como sea, si un androide debe aprender como lo hacemos nosotros (con algunas particularidades) lo hará para sí mismo, para encontrar sus soluciones y su satisfacción, no se trata por lo tanto de un mero autómata, sino, hasta donde cabe, de una máquina “independiente” que eventualmente generará sus propias soluciones y por lo tanto su propia inteligencia.

Antes de terminar conviene abordar un punto muy importante relacionado con los recuerdos y la memoria orgánica en general. Muchos son los que han pensado que la experiencia y los recuerdos podrían prefabricarse y simplemente implantarse como si se tratase de datos o líneas de código en un programa. Pues no, ni siquiera en un androide, y la razón es simple, cada recuerdo se forma secuencialmente durante la exploración sensorial, a través del enlazamiento en redes, de las neuronas que van siendo activadas en el seguimiento de trayectos reales. Esta activación y enlaces dependen a su vez de lo que resulte significativo para el individuo que busca y explora, y por supuesto el valor informativo de cada neurona debe ser coherente con las características de la propia experiencia, eso no se puede inventar sin perder coherencia. Lo que puede y debe ser programado son las neuronas que otorgarán significación a las señales sensoriales, puesto que estas constituyen los ladrillos con los que se construyen los recuerdos, no hay otros elementos anteriores, ellas son la base. Simular recuerdos completos implicaría construir redes entre neuronas, que no se puede saber si representan un contexto perceptivo real y posible. Imagine usted que le implantan un recuerdo en que, para ser coherente con el contexto supuesto, deben gustarle ciertas cosas que en realidad detesta, o de las que no tiene ninguna experiencia previa. Cree realmente que este podría ser un recuerdo funcional o solamente el de un mal sueño. Los recuerdos no se pueden simplemente construir e implantar con éxito, si no se inscriben en una línea espacio temporal donde hay muchos otros que les dan sentido y sustento. Por eso mismo es más o menos fácil descartar los recuerdos de los sueños, porque tienen muchos vacíos e inconsistencias, sobre todo temporales, de lo contrario nada impediría considerarlos como situaciones que realmente ocurrieron.

El androide

Ahora que tenemos claro que un androide con inteligencia artificial humana debería responder sensible y conductualmente como lo haría un ser humano, debemos hacernos la siguiente pregunta: realmente queremos fabricar un ser humano artificial, que podrá pensar de forma equivalente como lo hace uno normal y que hasta podría terminar por creer en Dios o querer ser un yihadista. Bueno, siempre se le pueden incorporar las tres leyes de Asimov, pero en ese caso, para qué podría ser útil.

En fin, de todos modos hay muy buenas razones para intentarlo, y la primera de ellas es que permitiría poner a prueba la teoría que explica los procesos orgánicos en los que se apoya este ensayo, demostrando de paso que esas son efectivamente las principales funciones del cerebro humano.

Por otra parte, el hecho de que el androide sea una máquina y no un organismo real, permite trabajar en él como si se tratase de cualquier máquina en el proceso de ponerla a punto, reiniciándola tantas veces como sea necesario, ya sea en la programación de sus neuronas artificiales o en la operación sistémica. Después de todo se tratará de un proceso de ensayo y error que de alguna manera replica el que se ha dado de manera natural en la evolución de las versiones orgánicas, solo que ahora ocurriría infinitamente más rápido. Esta posibilidad de ir probando la graduación de las reacciones neuronales determinará el sentido de sus conductas y su carácter en general. Así que después de todo sí sería posible orientar sus gustos y afinidades hacia ciertas tareas (“ingeniería genética artificial”).

A mi modo de ver las únicas tareas que verdaderamente justifican la construcción de androides como el que hemos descrito, está en su empleo en la conquista del espacio, donde tendrían una función irremplazable, y de hecho serán ellos quienes nos reemplazarán (el histórico temor), internándose y evaluando todos los ambientes posibles, en misiones que podrían durar decenas de años.

Aparte de las ventajas obvias de no envejecer y poder ser actualizado con facilidad, su cerebro podría trasladarse, con todos los recuerdos incluidos, y reinstalarse en una nueva máquina, puesto que si la memoria conserva íntegra la coherencia inherente a su proceso de formación, seguirá siendo perfectamente funcional. Podrían además ser clonados en réplicas con idénticos recuerdos y experiencia, digamos que las copias “nacerían” como si ya supiesen todo lo que “son”. De modo parecido a como opera en los seres vivos la información que activa las conductas instintivas, que si bien no podemos recuperar como otros recuerdos (memoria adquirida), si genera automáticamente conductas útiles sobre las que no solemos preguntarnos.

Por último, de lograr que efectivamente fuesen empleados, sin duda alguna, serían los mejores posibles.



Sergio Aranda Klein
sergioaranda@evolucionhumana.cl
sergioarandak@gmail.com
http://www.evolucionhumana.cl
http://www.evolucionhumana.cl/Teoria_de_la_funcion_cerebral.pdf
Santiago – Chile
Agosto 2016



 ¿Te ha gustado este artículo?
Colabora con
REDcientifica
desde 1 euro


  



Comentarios



Enviar un comentario anónimo
Los comentarios se publican de forma anónima, pero puedes indicar tu nombre o nick en el propio comentario. No se permiten caracteres html, pero puedes poner la URL en una línea independiente de la forma http://www.ejemplo.com/ y la convertiremos en un link.

¿Eres humano? 

REDcientifica

Ciencia, Tecnología y Pensamiento

¿Has olvidado tu contraseña?
Usuario o Email
Clave


   


Últimos comentarios
» http://www.redfilosofica.org/como_pri...
» http://www.redfilosofica.org/como_pri...
» http://www.redfilosofica.org/como_pri...
» Muy bonito, me ha gustado mucho la reflexión, no obstante recomiendo no embriagarse de fantasías...
» Lo siento, no hemos podido migrar automáticamente todos los artículos al nuevo sistema de redcie...
» solo apares el titulo, no puedo ver nada sobre el articulo que busque
» https://pablomolinero.com/escritos/mo...


Temas
Antropología (12)
Aprendizaje (18)
Arte (1)
Astronáutica (1)
Biografía (1)
Biología (11)
Cerebro (12)
Ciencia (28)
Ciencia-ficción (2)
Computación Evolutiva (1)
Consultoría (5)
Cosmología (4)
Cuántica (6)
Ecología (5)
Economía (23)
Educación (24)
Ética (13)
Evolución (8)
Filosofía (68)
Física (13)
Futuro Vegano (2)
Genética (4)
Gnoseología (7)
Historia (3)
Informática (8)
Ingeniería (3)
Inteligencia Artificial (9)
Lingüística (2)
literatura (1)
Lógica (3)
Marketing (8)
Matemáticas (6)
Medicina (24)
Método Científico (9)
Negocios (2)
Neurociencia (2)
Política (12)
Programación (4)
Psicología (15)
Química (1)
REDcientifica (6)
Redes Neuronales (3)
Robótica (5)
Sensocentrismo (1)
Sistemas Complejos (4)
Sociología (26)
Subjetividad (26)
Tecnología (15)
Visión Artificial (1)

 redcientifica.org en Twitterredcientifica.org en Facebookredcientifica.org en Google+ 

redcientifica.org en LinkedIn



CSS Validator