El nombre de la página

El porqué se elige un nombre y no otro no siempre es fácil de saber. En mi caso La habitación china quiero que sea el nombre de una futura recopilación de mis primeros relatos de ciencia ficción. Sí, aunque no lo parezca, los relatos que estoy escribiendo (Horror Vacui y La paradoja de Teseo) forman parte de un proyecto más grande y aunque se pueden leer de forma independiente, creo que su lugar adecuado será en ese futuro libro.

¿Y qué es una habitación china? Pues todo tiene que ver con la inteligencia artificial. En los años 60 y 70 uno de los padres de la IA Roger Schank creo un programa que intentaba simular el comportamiento de la mente humana, intentando que una máquina no solo pudiese pasar el test de Turing, sino que fuese capaz de comprender el mundo que le rodeaba. Este tipo de programación llamada por guiones, trataba de hacer comprender a una máquina una historia tan simple como la siguiente:

“Una persona pide una hamburguesa en un restaurante. La hamburguesa que le traen está totalmente quemada. El cliente se marcha enfadado, sin pagar ni dejar propina.”

Para comprobar si la máquina comprende una historia tan simple se le debe poder preguntar en relación a la historia y la máquina ser capaz de responder. Una posible pregunta sería: “¿Se comió el cliente la hamburguesa?” En principio para cualquiera de nosotros responder a esa pregunta es fácil, nuestro cerebro supone que si alguien no ha  pagado esa hamburguesa que está muy quemada, entonces no la ha comido. Pero hacer esa suposición para una máquina no es nada fácil. La programación por guiones de Schank pretendía dotaar le a los ordenadores de una forma de poder realizar este tipo de conclusiones y así asimilar comprensión de una máquina a la de una persona. Así, afirmarán los defensores de la postura de la IA fuerte, gracias a este programa una máquina era capaz de comprender el lenguaje y el mundo al igual que lo comprende un ser humano .

Pero ahí estaba Searle, un filósofo que desarrolló la teoría semiótica sobre el lenguaje llamada actos de habla. Searle se opone tajantemente a considerar que el pensamiento de una máquina pueda ser ni remotamente parecido al de una persona y así propone un experimento mental que se llama la habitación china para  demostrar que no lo es. El experimento consiste en lo siguiente (esta es una versión ligeramente modificada realizada por mí para que se entienda mejor el argumento):

Imaginaos que hay una persona encerrada en una habitación que no tiene ni idea de chino. Por una ranura de una pared le intruducen un texto en chino. A su lado hay un libro que le permite transformar los caracteres chinos en otros árabes (una lengua que tampoco conoce), así que coge el texto que le han dado en chino y usando el libro lo transforma en los carácteres árabes que el libro le señala. Finalmente por otra ranura en la pared opuesta de la habitación saca el papel en árabe. Cualquiera que viese la traducción pensaría que la persona de dentro comprende (y este es el quid de la cuestión) tanto chino como árabe, pero en realidad no comprende ninguna de las dos lenguas. Y así es para Searle  cómo funciona un ordenador, una máquina. Transforma unos símbolos en otros (mera sintaxis), pero no comprende nada de lo que transforma (es decir es incapaz de semántica) y esta sería la diferencia fundamental con los seres humanos: que nosotros, según Searle, sí comprendemos las cosas y no solo transformamos símbolos. Por eso, para Searle, aunque una máquina sea capaz de responder a cualquier pregunta sobre una historia, nunca va a comprender la historia, porque solo transformará los símbolos de la pregunta en los símbolos de la respuesta, pero sin saber lo que realmente significan. Por resumirlo, en la máquina entra una información codificada (input) y la transforma a través de unas reglas (algoritmos) en una información de salida (output), sin saber nada de lo que pasa entre el input y el output. ¿¡Pero no es que en el fondo  lo mismo que pasa con nuestro cerebro!?

Para mí el argumento de Searle (y es un largo y arduo debate) consigue lo contrario a lo que intenta defender.  El problema no es que la máquina pueda  ser humana, sino que los seres humanos somos máquinas. Nuestro cerebro procesa información al igual que una máquina y no parece que haga algo muy diferente a transformar unas corrientes eléctricas en otras (con permiso de la ley de Llinás), salvo que se crea en algo inmaterial como el alma.

Esto último lo puede comprobar cualquiera que haya escrito un relato. ¿Cómo se llega a una idea? ¿Acaso yo tengo la idea o es ella la que me tiene a mí? En ningún momento el supuesto creador (el escritor) tiene control consciente de lo que piensa. O se te ocurren las cosas o no, pero todo depende de nuestra máquina, nuestro cerebro. Yo lo veo así: leo libros, veo películas …, mi cerebro recibe esa información, la codifica para formar parte de mi memoria y después con todo eso en algún momento se le ocurre una idea, pero yo en ningún momento comprendo como se llega a esa idea. Es decir, meto unos datos en mi cerebro (inputs) y con suerte saldrá unos datos, un output en forma de relato, novela o película, pero en ningún momento he comprendido el proceso. Muchas veces me siento como un espectador de mis propias ideas y cuando se me ocurren, sufro la misma sorpresa y exitación que me sucede cuando leo un libro ajeno que me sorprende y me gusta mucho. Es como si yo no lo hubiese creado, y en el fondo así es, porque crear, lo crea mi cerebro.

Y de ahí el nombre de la página. La habitación china de Javi hace referencia a que es mi cerebro el que ha creado toda mi obra y que yo no soy más que aquel que le pone su nombre propio a esa obra, por eso la habitación china es de Javi, porque me pertenece en cuanto que me apropio de ella (sería el uso del genitivo subjetivo), pero al mismo tiempo la habitación china de Javi hace referencia al genitivo objetivo, es decir, que la habitación china crea a Javi, es de Javi en cuanto que da forma al objeto Javi, al igual que los jinetes de la tormenta son tanto los que pertenecen a esta (genitivo subjetivo) como los que doman la tormenta (genitivo objetivo).

Así que espero que esta máquina pueda seguir creando al sujeto que soy, porque yo no soy causa de mis ideas sino su efecto. Y espero que estas ideas que ocurren en esta máquina no solo me sorprendan y gusten a mí, sino también a vosotros porque al final, si os gusta lo que produce entonces vosotros, lectores, también seréis creados, aunque sea solo un poco, por esta habitación china y compartiremos un vínculo, vosotros y yo, imposible ya de borrar.

 

10 thoughts on “El nombre de la página

  1. Hola Javier. Muy interesante tu blog, un poco descuidado el estilo, pero con contenidos suculentos. En cuanto a el nombre del blog, muy acertado. El postulado o ‘experimento mental’ de Searle es desde luego, ocurrente y expresa bastante bien lo que atañe al verdadero conocimiento o capacidad de los seres humanos en transcender de los meros datos y lograr sacar de ellos algo que en un primero momento, no ‘estaba ahí’.

    Sin embargo, discrepo ligeramente con tu conclusión. Si la idea es llegar a que los seres humanos somos ‘máquinas biológicas’, no hacían falta esas alforjas para ese viaje. Tienes derecho por supuesto a llamar como quieras a las especies vivas, pero no para confundir unas cosas con otras. Es decir, las ‘máquinas naturales’ son una cosa, y las creadas por los humanos, las máquinas artificiales, son otra distinta. Eso es lo que Searle deseaba señalar, que si bien operamos inconscientemente bajo un funcionamiento que no conocemos, también es cierto que el resultado de dicho funcionamiento no puede ser reproducido por ninunga de las máquinas que podemos construir hoy por hoy. Freud ya fue el que puso sobre el tapete el asunto del ‘subconsciente’ y desde luego que hay mucha miga ahí, ahí un punto en el que ‘no somos conscientes de nuestra consciencia’, pero aún así, lo que estamos haciendo ahora mismo hablando sobre ello y comprendiendo y analizando las consecuencias de lo que estamos conversando, no lo puede hacer una máquina… artificial.

    :-)

    • Sí que está descuidado, pero espero poco a poco ir mejorándolo en cuanto tenga algo más de tiempo. Con respecto a lo de Searle habría mucho que discutir, pero por puntualizar lo que dices. La suposición de que animales y máquinas artificiales son diferentes es eso, una mera suposición. Los defensores fuertes de la inteligencia artificial defiende que sí son iguales. Otra suposición. Pero a mí esta segunda me convence más, por varias razones: 1. Porque si el cerebro trabaja con bits eléctricos y al final transforma información, ¿no es lo mismos que hace un ordenador? ¿Acaso no puedo decir que una máquina sabe jugar al ajedrez, incluso mejor que yo? Ahí entra en juego qué quiere decir saber. Para Searle es algo que no podemos hacer consciente, pero a mi como explicación no me vale. El significado de algo, siguiendo las teorias del uso del lenguaje que inició (el segundo) Wittgenstein, es aplicar correctamente las reglas de uso de ese algo. Si una máquina aplica correctamente las reglas del ajedrez, entonces comprende lo que es el ajedrez. Toda otra definición del significado que recurra a otras nociones al final termina cayendo en una cierta espirutualidad, que es precisamente lo que se quiere demostrar. 2. Enlazando con esto último. Searle dice que no es lo mismo la comprensión de un ser humano a la de una máquina. ¿Por qué? Porque no son iguales, parece como si supusiese que en el cerebro humano hay algo más que lo material que le pone en un estatus ontológico diferente a las máquinas, pero eso no lo demuestra solo lo supone. Para mí cuando una máquina transforma unos símbolos en otros comprende tanto chino como árabe. Eso es comprender. En el ejemplo de Searle parece que como solo hace eso no comprende el lenguaje, pero una máquina puede tener sensores y utilizar correctamente esas palabras en un contexto de comunicación, lo que le haría pasar el test de Turing. ¿Por qué esa máquina que ve, oye, siente y habla es diferente de un ser humano? ¿Por una intuición, porque suponemos de principio que somos diferentes? Pero eso no demuestra nada, son solo conjeturas. Yo puedo suponer que en el futuro las máquinas comprenderán exáctamente igual a los seres humanos porque a nivel de teoría de la información somos iguales. ¿Por qué no va a poder tener una máquina conciencia? Eso es lo que Searle no explica y Penrose intenta explicar de manera deficiente, dejándolo en manos del azar. Entonces mi hipótesis de momento es más pausible que la de Searle, mientras no muestre en qué consiste la diferencia entre el pensamiento de un ser humano y el de una máquina.
      Y dicho esto ahora digo lo contrario. En esta entrada apunto a alguna diferencia: http://www.lahabitacionchinadejavi.com/miscelanea/noticias/la-maquina-y-el-ser-humano/
      Otras que creo que nos diferencia es la capacidad para las metáforas, poesía y el sentido de humor. Aquello que al final tiene que ver con la inspiración o con algo que no somos capaces de decir por qué nos hace reír, que escapa a nuestra comprensión. Y puesto que no todos los seres humanos son capaces de entender metáforas y a veces tampoco sentido de humor, ¿es ese el rasgo distintorio del ser humano? ¿Son esas personas las únicas que podemos decir que no son máquinas…? Ahí queda la pregunta.

  2. Hola Javier. Creo que disponemos de información diferente. Sin ánimo de parecer prepotente, creo que hay algunos conceptos que tal vez, no hayan llegado a tus oídos. O puede que sea yo el que ha presupuesto algo sin contrastarlo adecuadamente. En todo caso, te cuento lo que tengo entendido.

    Las diferencias entre máquinas naturales y las artificiales, están ya delimitadas mediante al menos, algunas teorías y postulados científicos. Son precisamente los defensores de la IA fuerte, los que sin prueba alguna, tan sólo inducidos por su positivismo científico, los que piensan que tan sólo es cuestión de tiempo alcanzar la mente humana.

    Antes de continuar hay que aclarar algunas cosas. No es lo mismo hablar de una máquina que “supere” al cerebro humano en aptitudes generales, cosa de la que puedo admitir con tranquilidad que es posible y muy probable, y otra cosa es hablar de emular la capacidad de consciencia de la mente humana. De encontrar sus fundamentos y sobre todo, en qué nos diferencia cualitativamente de las máquinas pensantes artificiales. No me cabe duda de que podrán jugar mejor al ajedrez e incluso al póker, de la misma manera que una simple calculadora de bolsillo realiza cálculos mucho más rápido que la mayoría de cerebros humanos (digo la mayoría porque hay gente que posee una sorprenderte capacidad para esto, así como para memorizar listínes telefónicos enteros, pero bueno, son la excepción), pero entre esta capacidad de procesamiento y el funcionamiento de la mente humana hay un abismo cualitativo muy grande. Esto es lo que el ejemplo de Searle, sin ser ni mucho menos concluyente ni definitivo, intentaba explicar. Ahora bien, lo que puede ocurrir es que un cerebro artificial lo suficientemente potente pueda convivir con nosotros, realizar una “vida normal” en la sociedad, sin que le haga falta alguna la capacidad de consciencia. Esto es lo que Asimov ha defendido y así es como lo reflejaba en sus libros. Humanos y robots no son iguales, ni falta que hace.

    Enlazando de nuevo con el tema de las diferencias, estas se definen por dos principios lógicos y matemáticos. La “no computabilidad” de Alan Turing y el principio de “incompletitud” de Kurt Goedel. El primero es aplastante, sencillamente está matemáticamente definido que hay problemas que un computador no puede resolver, porque entra en un estado en el que no puede determinar si hay llegado a alguna solución. Los humanos simplemente “sabemos” cuando esto ocurre. Hablo de matemáticas, probadas y contrastadas: las ACTUALES máquinas pensantes JAMÁS podrán superar esa limitación que a la que el cerebro humano no está sujeto. Y el principio de incompletitud es una de las conclusiones de la lógica que más ha tambaleado al positivismo científico, cosa que no obstante, este sector gusta de ignorar: un sistema lógico no puede demostrarse a sí mismo. Eso implica que el conjunto de funciones lógicas que tenga un robot nunca podrá verse a si mismo como una entidad definida. Estos es, no podrá tener consciencia de sí mismo. Como hacemos los humanos.

    Saludos

    • No, prepotente, no, me apasionan estos debates 😉 Es verdad que no sé a que teorías científicas que diferencian lo natural de lo artificial te refieres. Yo puedo dar algunos argumentos sobre lo que conozco. Los defensores de la IA fuerte, entre los que supongo me encuentro (aunque no los he leído) suponemos que el cerebro trabaja con información (y en esto creo que estaremos de acuerdo) y por lo tanto funciona con algoritmos. La cuestión, por tanto, de simular el cerebro humano es la cuestión de simular esos algoritmos. El único autor que yo conozca que ha intentado mostrar que el cerebro no se rige de manera algorítmica (o por un algoritmo no computable como lo llama él) es Roger Penrose y precisamente lo hace usando el principio de incompletitud de Gödel. Más adelante dirá algo sobre él. Pero suponiendo que Penrose tenga razón, que es mucho suponer porque esta no computabilidad la basa en la teoría cuántica y en una estructura de las neuronas que ya se ha mostrado incorrecta, en el mejor de los casos la no computabilidad dependería del azar cuántico, por lo que no me parece tampoco que resuelva nada. Yo puedo crear un ordenador que tenga como base una función de azar (para que fuese puro azar en último término podría basarlo en un fotón reflejado en un espejo semi trasparente).
      Por lo que si suponemos que el cerebro usa algoritmos, ¿qué nos hace suponer que no se descubrirá el algoritmo que “crea” la conciencia? Y vuelvo a mi respuesta anterior. Solo una cierta espiritualidad. La conciencia está más allá de lo computable, de lo algorítmico, de lo material. Quitando que la conciencia supone una parte ínfima de lo que es el cerebro humano y que se engaña constantemente sobre lo que realmente ocurre a nivel insconsciente (y utilizo este término en un sentido no freudiano) y quitando la definición sobre qué es la conciencia, que yo sepa las teorías que hay sobre esta son de caracter especulativo filosófico y no científico (filosofía de la mente y el lenguaje: Dennet, Putman y el propio Searle). Para Searle la conciencia es una propiedad emergente de la química, física y biología. Incluso aceptando que eso es así, no sé hasta que punto esto descarta que se pueda reducir a un algoritmo. De todos modos como digo eso pertenece a la filosofía de la mente y no a la ciencia, por lo que la opinión de Searle es eso, una opinión y mientras a mí no me muestre ya no cómo emerge la conciencia, sino que no es un algoritmo y no se reduce a información, no me convence su argumento. Porque las propiedades emergentes que conocemos, por ejemplo las propiedades químicas que no se deducen de las partículas elementales (teoría cuántica) forman parte de otros algoritmos matemáticos.
      Incluso Antonio Damasio en su último libro que todavía tengo pendiente por terminar (Y el cerebro creó al hombre) llama a su hipótesis sobre la conciencia programa de investigación. No sé si se refiere al sentido que le da Popper como una especie de embrión de teoría científica, una herramienta que puede ayudar a plantear conceptos, modelos… que después formen una teoría contrastable. Pero que de momento no es más que una conjetura, que dirían los matemáticos.

      Y por último con respecto al principio de indeterminación de Gödel no creo que realmente sea un problema para simular el cerebro humano, porque el cerebro humano no sigue una lógica formal. El cerebro humano no es que sea consciente de sus presupuestos, sino que no se los plantea y si se para en sus razonamientos, no es porque llegue a una conclusión lógica, sino porque tiene que decidirse. El cerebro humano como herramienta biológica que es no puede esperar a hacer derivaciones lógicas de una premisas, puesto que vive en un mundo con información imperfecta en el que el tiempo es vital. Por eso utiliza atajos para pensar que son los sesgos cognitivos. Es lógico. Si tú estás en un bosque y oyes que un arbusto se mueve y sales corriendo y no esperas a valorar toda la información es porque tu vida depende de ello y la deducción de las consecuencias no puede esperarse a tener más premisas e información. Si el cerebro para de deducir es porque utiliza un algoritmo heurístico, que puede tener importancia para la supervivencia, pero que desde el punto de vista lógico no es correcto. Aquí un buen artículo sobre los sesgos: http://jesusgonzalezfonseca.blogspot.com.es/2013/01/heuristicos-y-sesgos-cognitivos-los.html Lo que quiero decir con esto es que no sufrimos el problema de la parada porque paramos de forma intuitiva (como tú mismo reconoces) y por lo tanto irracional. No veo problema para que una máquina no pudiese utilizar un algoritmo heurístico de este tipo.

      Por lo que, nuevamente, lo que creo que Searle intenta mostrar con su habitación china es que las máquinas no pueden dar significado a los signos, que son pura sintaxis sin semántica. Sin entrar en los a veces confusos terrenos del post-modernismo y la idea de que los seres humanos en el fondo somos pura sintaxis, lo que Roger Schank muestra con su algoritmo de guiones es que una máquina sí sería capaz de comprender el mundo que le rodea con la suficiente información empírica, que podría recoger a través de sus sensores. Yo no veo límite a que una máquina comprenda las palabras si por “significado” hablamos de reglas de uso. Si por significado de las palabras hablamos de otra cosa, entonces sería otro largo debate.

      Creo que en el fondo supones, permíteme que me atreva a imaginar lo que crees, el argumento zombi de Chalmers. No tengo tan claro que Asimov refleje robots sin conciencia, por lo menos eso no se puede decir del hombre bicentenario, pero el argumento de Chalmer supone eso, más o menos, de los zombis. Y dice que puesto que nosotros sí tenemos conciencia entonces esta es algo diferente a comportarse como si fuesen humanos. Pero a mí este argumento me recuerda al argumento ontológico de San Anselmo y la crítica que le hace Kant: presupone aquello que intenta demostrar. Por definición, lo que hace Chalmers a grosso modo porque hay diferentes versiones del argumento, es presuponer que zombis y seres humanos somos diferentes y por tanto esa diferencia queda demostrada en que nosotros sabemos que tenemos conciencia y ellos suponemos que no. Pero, ¿acaso si algo se comporta como un perro, huele como un perro, ladra como un perro en que momento podríamos decir que no es un perro? Solo si definimos perro como un organismo vivo producido en el proceso de evolución biológica. Pero eso por definición elimina de partida cualquier simulación de perro que quiera tener ese estatus ontológico. Pero lo que yo supongo es que si en algún momento una máquina habla como un ser humano, se comporta como un ser humano, tiene la capacidad de escribir o pintar como un ser humano… ¿por qué no le podemos llamar ser humano? Tú dirás porque no tiene conciencia, pero la definición de esta es confusa, porque puedo imaginar una máquina que sea consciente de su entorno y de sí mismo, no le veo problema. Puedes decir que eso nunca se logrará, pero eso es una conjetura, porque mientras no me demuestren que el cerebro no es una máquina que procesa información, esa posibilidad teórica existe.
      Espero no haber sido demasiado intenso y pesado en la explicación, pero ya te dije que me apasiona el tema. Solo un apunte para concluir. Este no es un debate que surja ahora. Por lo menos se remonta a Descartes y el racionalismo. Lo que pasa es que este no se atrevió a ir hasta el final con esta hipótesis y cayó en el dualismo. Pero después, a raíz de la teoría de Newton y el determinismo que esta implica surje la idea de que el hombre es una máquina. Esta se ve perfectamente reflejada en el libro de LaMettrie el hombre máquina de 1747 que si se atrevió a decir lo que Descartes no pudo y Leibniz enunció como Nihil est sine ratione, nada es sin razón (o nada es sin algoritmo traduzco yo de forma libre ;).

      • ¡Buf! comentarios demasiado largos como para el tiempo del que dispongo. Seré lo más breve posible:

        suponemos que el cerebro trabaja con información (y en esto creo que estaremos de acuerdo) y por lo tanto funciona con algoritmos

        A esto es a lo que me refería, que no parto de suposiciones, sino de hechos probados. Nadie sabe cómo trabaja nuestro cerebro, pero sí sabemos que podemos definir y solventar problemas no computables que ningún algoritmo puede hacer. Cuando nuestro cerebro resuelve problemas no computables usa la intuición, en efecto, pero el resultado que llega no tiene nada que ver con “una intuición”. Cuando un matemático usa su intuición para resolver o componer un teorema matemático, el resultado sigue por completo las reglas de la lógica y la matemática, perfectamente contrastables por cualquiera, incluida una mente artificial. Lo que no las sigue es el camino utilizado, el cuál no se conocen sus principios.

        Por tanto, Penrose no “supone” nada, sino que se basa en una interpretación de los hechos. Otra cosa es la alternativa teórica que propone, contrastable científicamente y cuya veracidad o falsedad es independiente de lo anterior —que yo sepa, nadie ha refutado la teoría de la mente de Penrose, por tanto, sigue siendo sólo una teoría, pero válida—. Los defensores de la IA fuerte hacen lo que tú haces, en efecto, suposiciones que a ellos les valen, pero que no se ajustan a la experiencia.

        Lo que si entra en el terreno de las opiniones es lo que comentas de Searle, pero únicamente ese aspecto: Searle —y Penrose problamemente también— creen que la autentica inteligencia sólo puede existir si va acompañada de conciencia. Pero como digo, esto no atañe a la naturaleza propia de la consciencia. Por eso comentaba que es opinable que puedan existir mentes artificiales que logran sus propósitos sin que sigan el mismo camino que el cerebro. Pero esto es una cosa, y otra el principio de funcionamiento de la consciencia, el cuál permanece en el terreno de lo desconocido.

        En cuanto a Asimov, una cosa es lo que expone como divulgador científico, y otra lo que pone en sus libros de ciencia-ficción. En efecto, en algunas obras dota a sus robots de conciencia pero como una excepción, y como recurso literario para explorar otros conceptos. Esto es lo que tiene gracia de la ci-fi, que se pueden postular ficciones para especular sobre ellas y la naturaleza de nuestro universo.

        Saludos
        :-)

        • Intentaré ser igual de breve que tú, que no quiero robarte tiempo. “Solventar problemas no computables”, imagino que que te refieres al camino que sigue el cerebro para llegar ahí. Que de ese camino no se conozcan los principios o el algoritmo, no lo hace automáticamente no computable. Lo hace desconocido.
          Penrose sitúa la no computación del cerebro en los centriolos de la neuronas. Eso es una suposición muy fuerte que además ha sido falsada: http://francis.naukas.com/2009/06/09/duro-varapalo-a-la-teoria-cuantica-de-la-consciencia-de-penrose-y-hameroff/ Por lo que no sé qué tipo de algoritmo no computable puede utilizar el cerebro.
          Que el cerebro procesa información es un hecho. Y que para ello utiliza algoritmos es también un hecho, o una interpretación de los hechos, que se ve perfectamente contrastada en que los ordenadores pueden simular algoritmos de nuestro cerebro: la memoria, la visión, reconocimiento facial, calcular operaciones matemáticas… Luego es más que una suposición. Por tanto puedo hacer la hipótesis totalmente razonable de que el resto de las funciones del cerebro, como la conciencia, también es algorítmica. El que lo sea o no, se verá, pero nadie ha podido descartar ninguna de las dos hipótesis.
          Como digo, creo que ambas dos posiciones son filosofía y no ciencia y en ese sentido me convence más la de la IA fuerte por todo lo dicho anteriormente.
          Gracias a ti por tu tiempo 😉
          Javi

          • “Solventar problemas no computables”, imagino que que te refieres al camino que sigue el cerebro para llegar ahí. Que de ese camino no se conozcan los principios o el algoritmo, no lo hace automáticamente no computable.

            No Javier. Una cosa son los problemas no computables, y otra el camino seguido para solucionarlos. Lo primero está definido por la matemática y está demostrado que un algoritmo no puede solucionarlos, pero el cerebro humano los trata con normalidad. Lo segundo, el camino que sigue nuestra mente para darles solución, eso sí, es desconocido. Por mera inferencia lógica, si nuestra mente les da solución y un algoritmo no puede, se induce que el proceso de nuestra mente NO es un algoritmo.

          • Sin ánimo de robarte mas tiempo: sería una inferencia lógica si añades la premisa de que los principios desconocidos que llevan a esa solución los halla el cerebro a través de una función no algorítmica. Puesto que esto es lo que se pretende demostrar que se halla en el cerebro, es un supuesto. Para mí nuestras posturas son irreconciliables porque partimos de premisas diferentes, no porque una posición sea mas científica que la otra.

  3. Sigo sin explicarme o no entiendo lo que dices. Discúlpame por ello. La premisa que comentas no puede añadirse, ya que esa es la conclusión, no la premisa. Creo que es mucho más sencillo, salvo que esté pasando algo por alto:

    si está demostrado que para llegar a “A” no es posible hacerlo con ningún algoritmo, y la experiencia y el hecho de que nuestro cerebro puede llegar hasta “A”, implican necesariamente que nuestro cerebro no trabaja con algoritmos.

    Todo lo demás son suposiciones, y llevados más allá, puro dogma de fe.

    • La culpa es mía porque los problemas no computables como tal no sabía exáctamente a lo que te referías e hice deducciones basándome en lo que sé del problema de la indecibilidad. Google tampoco me ha ayudado mucho a encontrar un problema no cumputable cuya solución haya encontrado el cerebro humano. Si pudieses indicarme alguno de estos problemas y su solución, te lo agradecería mucho. Gracias por tu tiempo, de verdad.
      Javi

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *