miércoles, 24 de diciembre de 2014

La Inteligencia Artificial


Dalai Lama

Recientemente el Dalai Lama dio unas declaraciones en las que además de advertir de los peligros de la Inteligencia Artificial aseguraba que esta jamás podría superar a la inteligencia humana. Esta es una de otras muchas declaraciones de alarma ante los recientes avances IA (o las ultimas peliculas de ciencia ficción),  dichas por cientificos, pensadores o intelectuales celebres para las masas, como Stephen Hawking. Pero me interesa especialmente la opinión del Dalai Lama porque hasta cierto punto expresa la posión de una religión que ha pretendido y reclamado haber trascendido la razón gracias a sus prácticas y en la figura sus santos ¿pero de qué forma lo ha hecho o ha dicho hacerlo? Si uno se pone a leer los textos buditas uno encontrara cosas como esta:

La mente es el gran destructor de lo real. Destruya el discípulo al destructor”

Probablemente esa sea la razón por la que no soy un monje budista. En realidad es, hasta donde tengo entendido, una cita de la "Voz del Silencio" de Blavastky pero perfectamente consistente con la filosofía y las prácticas yógicas de budistas e induistas. Es decir tanto el budismo como el hinduismo se han afanado en trascender la mente racional recurriendo a la ejercitación de supuestas falcultades y centros energéticos en el hombre que  ofrecerían un panorama más amplio de la realidad, fuera del mundo racional y causal, más allá de su lenguaje y sus herramientas. Esto es un salto metafísico, que solo tendría validez para el que lo da pero que no tiene nada que demostrar a los que nos quedamos del otro lado de la orilla y  nos seguimos aferrando a la razón y a la evidencia física. De hecho los misterios de ese mundo transcendental de los budistas son de una oscuridad y profundidad insondable, regido por extraños, sutiles e innumerables hilos e influencias kármicas en las que si se toca solo uno de ellos podría resonar todo el universo.

La inteligencia artificial, en cambio, buscaría explicar de forma cabal el misterio de lo que es la racionalidad, dando un modelo exhaustido y completo de la propia inteligencia humana. Comprender de una forma científica la racionalidad sin duda es trascenderla. Es una trascendencia de la razón por medio de la propia comprención racional, es decir, para que se note la recursidad, la trascendencia de la razón por la razón.  ¿Es eso posible?.

Por otra parte creer que la inteligencia artificial es demasiado peligrosa, como para que pretendamos embarcarnos en ella, es no estar del todo consciente cuánto es la humanidad de peligrosa para si misma. Quien insiste tanto en ese peligro es porque no ha considerado cuanto podrían aportar esos hipóteticos modelos viviente de una inteligencia cuasi-humana o transhumana a la propia preservación de la especie humana. 

En lo personal creo que si la IA es posible, esta debería ser de algún modo algoritmica. Hasta ahora no veo forma de que exista una inteligencia no algoritmica, puede y debe tener aspectos cuánticos o holísticos pero aun asi a fin de cuentas tendría que ser modelizable por medio de un algoritmo. Uno de los principales críticos de una inteligencia algoritmica fue Roger Penrose, cuyo libro "La Nueva Mente del Emperador", he leido por trozos y capitulos sin hasta ahora haberlo podido hacer de cabo a rabo.  Para objetar la posibilidad de una inteligencia algoritmica en primer lugar se basa en los famosos teoremas de incompletitud Godel, aunque también en aspectos sutiles de la consciencia, como las disonancias cognitivas, la intuición, los presentimientos,  etc,  que en su opinión se fundamentaria en la existencia de estados cuánticos a nivel neuronal, se trata de una metafora muy poderosa.  Penrose además se atreve especular en que tal vez no se podría descifrar la naturaleza de la conciencia hasta no haber resuelto el meollo de la gravedad cuántica. Otra evidencia de los estados cuánticos de las neuronas seria la capacidad de cálculo del cerebro. Un estado cuántico es una superposición de estados discretos, por ejemplo en la paradoja Gato de Schrödinger se habla de un gato que a la vez esta vivo o muerto hasta que se observa el gato y es que este adquiriría entonces el estado discreto de vivo ó muerto. No voy a ahondar en los detalles de esa paradoja, cosa para la que tampoco tengo mucha pericia, pero lo que si intentaré responder es qué tiene que ver eso con la intuición o la conciencia de acuerdo a Penrose. La cuestión es que la en la conciencia también parecerían darse superposiciones de estados como los de la mecánica cuántica, por ejemplo un presentimiento o una idea que se nos antoja y tenemos dificultad en describir podría ser una superposición de estados cuánticos, de allí que tenga esa naturaleza tan nebulasa, difusa e indefinida, unicamente cuando aquirimos una idea clara de esta es que se rompería la superposición de estados cuánticos y al fin podríamos identificar el por qué de nuestra intuición o a qué se refería esta.  


En cuanto a los teoremas de incompletitud de Godel básicamente lo que dicen es que es imposible utilizar cualquier teoria del sistema de los números naturales para probar que este  sea exahustivo (o completo) y consistente. Con exhaustivo lo que se quiere decir es que pueda abarcar todos los teoremas posibles que sean verdaderos. Con consistente que la teoria carezca de contradicciones . En realidad el Teorema de Incompletitud es una construcción mucho más compleja de lo que se conoce como paradojas autoreferenciales.

Tal vez la paradoja de recursividad más simple sea la que dice:

"Esta oración es falsa"

Se conoce como la paradoja del mentiroso. Evidentemente la oración no es verdadera, porque explicítamente dice que es falsa. Tampoco es falsa porque si es falso lo que dice entonces es verdadera. Luego no es ni verdadera ni falsa. La oración autoreferencial en el sentido de que hace referencia a si misma y trata de asignarse un valor de falsedad así misma. Otro caso más complejo de paradoja de recursivida es la de Russell. En ese caso si se afirma la existencia de un conjunto que contenga a todos los conjuntos que no se contienen a si mismos, entonces es posible llegar demostrar a la vez que ese conjunto se contiene y no se contiene a si mismo. En este caso la autoreferencia reside en hablar de un conjunto que su vez contiene todos los conjuntos y a su vez, nueva autoreferencia, preguntarse si ese conjunto se contiene a no a su vez a si mismo.

Pienso que estos casos de autoreferencia tienen más relevancia que la de ser simples curiosidades, porque precisamente el algoritmo de la IA seria autoreferencial, se trata de construir un algoritmo que a su vez sea capaz de construir o descubrir todos los algoritmos posibles tal o tanto, sino más, como lo hace la mente humana. De hecho el algoritmo de la IA podría o debería ser capaz de inferirse a si mismo. Sin embargo los teoremas de incompletitud de Gödel parecieran refutar la existencia de semejante algoritmo, precisamente porque al refutar la existencia de un sistema axiomático que garantice la completitud y consistencia de los numeros naturales implícitamente también se estaría negando la posibilidad de un algoritmo que sea capaz de descubrir y demostrar todos los teoremas de la aritmética, como lo han estado haciendo generaciones de matemáticos durante siglos, y si ese algoritmo de la IA no logra dar con el algoritmo que generaría todos teoremas de los numeros naturales y sin contradicciones, no seria evidentemente el algoritmo de la inteligencia humana o entre los algoritmos posibles no estaría el de inteligencia humana. Efectivamnete los teorema de Godel nos estarían diciendo implícitamente que la inteligencia humana no es modelizable o simulable por medio de un algoritmo, los algoritmos solo serían uno de los aspectos de esta. ¿Estamos verdaderamente ante una imposibilidad o es un caso parecido al de la paradoja de Zenon?. La paradoja de Zenon conforma un conjunto de proposiciones lógicas y verdaderas que sin embargo llegan a una conclusión falsa, negando la posibilidad de algo tan evidente como lo es el movimiento. Asi como el movimiento es algo que constatamos a cada instante, el conocimiento matemático no ha dejado de dar muestras de ser lógico, coherente y sistematizable y sin embargo con los teoremas de Gödel se resiste a la posibilidad de una sistematización completa y definitiva.

A pesar de los teoremas de Gödel, algunos seguimos asumiendo que el ser humano ciertametne posee ese algoritmo de la IA, pero es completamente inconsciente del mismo. Estamos en el proceso de descifrar y tal vez incluso hacer conscientes esos procesos que ocurren de manera invisible en nuestros cerebros y que nos hacen capaces de hacer tan gran variedad de asociaciones y abstracciones mentales. Evidentemente un logro como ese impactaría por completo la concepción que tiene el hombre de si mismo, tanto como lo hizo el desarrollo del lenguaje sino más. En mi opinión creo que haría al hombre más racional.

Creo que la IA que surja sera una inteligencia con una capacidad de cálculo parecida a la de los computadores o supercomputadores que actualmente hay o habrá. Pero independientemente de esa capacidad de cálculo será una inteligencia como la de una colectividad humana en cuanto a su poder para hacer abstracciones y teorias. Es posible que puede superar a un ser humano,  pero no creo que sea posible que puede superar a la humanidad. No creo en la singuraliridad tecnológica a la manera de Kurzweil.

El problema de la inteligencia y de la consciencia de los computadores son dos cosas muy distintas y separadas, tal como pareciera demostrarlo el experimiento de la habitación china de John Searle , de hecho como dije anteriormente, nuestra inteligencia no es totalmente consciente de si misma, no sabe ni remotamente cómo es capaz de ser tan inteligente, por tanto a nivel de nuestra conciencia tenemos más similitudes con el operador de la habitación china de las que pareciera a simple vista y eso seguira siendo así al menos hasta que no se descubra el algoritmo de la IA. Ahora refiriendome a otro tipo de consciencia: lo que hace que los computadores sean los esclavos perfectos e ideales es que no son conscientes ni pueden conocer el placer y ni el dolor.  No pueden por tanto jamás sentir su condición como una injusticia y de allí que parezca irrisoria, ridícula o absurda la idea de que se alcen contra nosotros. Algo así solo podría ser un error de diseño o un bug de programación. Tampoco es concebible que una inteligencia artificial pueda evolucionar hacia una consciencia. Aunque tal vez si tenga sentido lo contrario, es decir que una consciencia evolucione hacia una inteligencia. No veo ninguna necesidad de darle consciencia a los computadores.

Pero desgraciadamente hay gente que si desearia que las máquinas fuesen consciencientes. Tal  vez la principal motivación de esa idea sea el propio deseo o fantasía de ser una máquina o un cyborg.  Esa fantasía puede ser la compensasión por no tener ni un mínimo de fé en la posibilidad de una presencia o de una entidad espiritual en el hombre. Ese no es mi caso, pero si es el caso de Kurzweil y muchos otros.  La verdad es que no comprendo ni puedo creer en esa idea de trascendencia a la manera de Kurzweil. La idea de que nos convertiremos en cyborg o máquinas y de esa manera en immortales. Que la tecnología alcanzaría un grado de desarrollo tal que prácticamente seremos como dioses. Eso me parece absurdo.

En primer lugar no creo que la muerte sea la tragedia que Kurzweil cree que es. Lo trágico es vivir con dolor pero la muerte en si misma no tiene nada de trágico, excepto para el que pierde al ser querido, pero sobre todo no tiene nada de trágico si se cree que después de esta no hay más nada. El caso es que la muerte es algo natural, lo que admiro de las películas Ghost in the Shell es que tratan sobre IA que entienden la muerte como algo necesario. Para que la muerte no fuese algo natural, deberiamos conocer a ese ser inmortal (¿dios?). Creo en un tiempo que es circular (no me refiero al eterno retorno a la manera de Nietzsche), por tanto  si existiese algo que pudiera ser inmortal deberia haberlo sido desde mucho antes de nuestra aparición. Si se pudiera evolucionar indefinida y al infinito, en el pasado hace mucho tiempo que habría surgido una civilización con todo lo aspirado y soñado por Kurzweil, ¿por qué no la hemos  conocido? ¡Porque el progreso hacia el infinito es un absurdo! La trascendencia es algo que debe precedernos  y no algo que podemos crear o inventar. Es en este punto en donde no deberíamos desdeñar tanto a las religiones y filosofías orientales. Las limitaciones de recursos del mundo son también bastante obvias como para que el progreso expotencial en el que tanto tiene Fé Kurzweil pueda ser algo sostenible. De hecho podriamos estar ante el umbral del ocaso de nuestra civilización tecnológica.

Volviento al libro de Penrose una de las cosas que me sorprende de este es la omisión que hace del trabajo de Noam Chomsky, a pesar de mencionar el trabajo menos relevante de otros investigadores como John Searle. Además de haber visto la Jerarquía de Chomsky en la universidad, he estado a penas adentrandome en su trabajo sobre las lenguas naturales y su teoría de una Gramática Universal, probablemente el tema más importante a la hora de resolver el enigma de la IA. Tal vez el debate más relevante y reciente sobre los avances y las tendecias en IA sea la polémica entre Chomsky y Peter Norving, recogida en este artículo.  Como muchos otros temas espero abordar todo esto que dejo pendiente en algún otro post.

De momento dejo este video a manera de introducción en lo que es el problema del lenguaje: