La insoportable levedad del test de Turing y la filosofía del Minotauro (Manuel Corroza)

Ojalá me lleve a un lugar con menos galerías y menos puertas. ¿Cómo será mi redentor?, me pregunto. ¿Será un toro o un hombre? ¿Será tal vez un toro con cara de hombre? ¿O será como yo?
[Jorge Luis Borges, "La casa de Asterión"]

NOTA PREVIA. Esta entrada quiere ser una reflexión filosófica sobre el denominado 'test de Turing', un experimento que pretende responder al interrogante sobre la capacidad pensante de las computadoras, tal y como Alan Turing lo planteó en su artículo de 1950 'Computing Machinery and Intelligence'. No se pretende, por tanto, elaborar una crítica de amplio alcance sobre la Inteligencia Artificial, ni sobre la posibilidad de que los ordenadores puedan llegar a pensar algún día, ni sobre la naturaleza computacional o no computacional del funcionamiento mental de los seres humanos, ni siquiera sobre la teoría materialista de la mente o sobre la perspectiva dualista mente-cuerpo. Trata este texto, por tanto, de ceñirse al diseño original de la prueba de Turing, a hacer explícitas algunas asunciones tácitas de dicha prueba, a realizar una crítica filosófica de tales asunciones y a extraer algunas consecuencias derivadas de aquéllas, como quien extrae el hilo de una madeja. Pero este desmadejado no siempre conduce a una zona limpia y clara: a veces, como en el caso de Teseo, uno se da de bruces con el Minotauro. Tal vez sea éste el caso.

Imaginemos la siguiente situación, haciendo abstracción de sus implicaciones éticas e incluso penales. Deseo gastar una broma a un amigo. Es un amigo soltero que frecuenta los canales de contactos por internet, en busca de pareja. Su canal preferido es uno cuya configuración permite que el intercambio de mensajes entre dos personas pueda ser observado, en modo oculto, por uno o  más terceros. Conozco bien a mi amigo, sé de sus gustos en cuestión de mujeres -vamos a suponer que es heterosexual, aunque esto resulta irrelevante para nuestro propósito- y de sus aficiones literarias, deportivas, gastronómicas y cinematográficas. Creando un perfil falso de mujer, el perfil A, me introduzco en ese canal y busco establecer un primer contacto con él. Al mismo tiempo, me aseguro de que ese intercambio esté a la vista de terceras personas en modo oculto para mi amigo, aunque no para mí. De un modo similar, puedo acceder a un foro paralelo, dentro del canal bajo un segundo perfil de usuario, el perfil B, en el que esos "mirones" intercambian sus propios puntos de vista. Poco a poco empiezo a mantener conversaciones cada vez más largas con mi amigo, siempre bajo el escondido escrutinio de los otros usuarios. Al cabo de un tiempo, los mensajes entre mi amigo y mi falso perfil femenino A llegan a ser extremadamente afectuosos. Conforme avanza nuestra relación virtual, voy leyendo y clasificando los comentarios que en el foro paralelo realizan nuestros emboscados observadores, sin intervenir en ellos o interviniendo de forma trivial bajo el perfil B. Transcurrido un tiempo prudencial, introduzco en el foro oculto de comentaristas la siguiente pregunta: ¿vosotros creéis que Menganita (en referencia a mi perfil de usuario A) se ha enamorado de Fulanito (en referencia a mi amigo)? Supongamos que de los veinte mirones ocultos, catorce opinan que sí y seis, que no. Es decir, un 70 % de los consultados afirman que Menganita (mi perfil A) se ha enamorado de Fulanito (mi amigo). ¿Sería lícito concluir que, puesto que hay una conspicua mayoría que así lo cree, Fulanita ama a Menganito? ¿Que existe un amor -tal vez correspondido, tal vez no, pero eso poco importa- entre ambos usuarios del canal de contactos?

Describamos una segunda situación, ésta real. Se trata del famoso experimento de Milgram, llevado a cabo por Stanley Migram, profesor de psicología de la Universidad de Yale, en 1963. En él, y con la excusa de la realización de una serie de estudios sobre el aprendizaje y la memoria, Milgram y su equipo diseñaron un experimento en el que unos cuantos voluntarios recibieron instrucciones de interrogar  sobre cuestiones triviales a un grupo de personas y de aplicar un castigo en forma de descarga eléctrica a aquéllas que respondiesen erróneamente. En la escenificación del experimento, el investigador y el voluntario se sentaban a un mismo lado de una mesa; al otro lado, y separada por una mampara que la ocultaba a la vista, se colocaba la persona interrogada. El voluntario debía aplicar descargas eléctricas de voltaje creciente -enre 45 y 450 voltios- a los sujetos interrogados que fallaran progresivamente en sus respuestas a las preguntas formuladas, siempre bajo la supervisión y la responsabilidad última del investigador. Conforme el voltaje aplicado aumentaba, los interrogados manifestaban un dolor cada vez mayor por medio de gritos, convulsiones y golpes en la mampara de separación. Por supuesto, el experimento era un simulación en todos sus aspectos: las personas interrogadas eran, en realidad, colaboradores del equipo de Milgram que debían fingir dolor y el cableado y el equipo de descargas eran falsos. Pero los voluntarios ignoraban ambos extremos. Los datos recabados tras la finalización de los ensayos fueron ciertamente sorprendentes: por supuesto, todos los voluntarios creían haber infligido daños físicos a las personas a las que habían interrogado. Más allá del intenso debate ético que el experimento ocasionó, y prescindiendo de consideraciones psicológicas y morales sobre la idoneidad de este tipo de protocolos experimentales, la cuestión que nos interesa es la siguiente: puesto que todos los voluntarios cayeron en el engaño de la simulación y creyeron sinceramente que estaban causando sufrimiento físico a otras personas, ¿realmente existió este daño físico?

Las dos situaciones descritas más arriba plantean una misma cuestión: ¿es condición suficiente para la existencia de un estado mental la creencia (por consenso o por amplia mayoría) de que tal estado mental existe? O, en otras palabras, ¿puede la existencia de un estado mental ampliamente compartido en un grupo de personas (la creencia, en este caso) producir o generar la existencia de un estado mental diferente (el amor o el sufrimiento) en una persona distinta, que no pertenece al grupo?

Esta pregunta subyace, se quiera o no, a uno de los textos científicos más importantes de los últimos cincuenta años, el artículo Computing Machinery and Intelligence ("Máquinas de computación e inteligencia", aquí en castellano), que el matemático  británico Alan Turing publicó en la revista Mind en 1950. Se considera que este escrito constituye una reflexión seminal en el desarrollo de la inteligencia artificial y en el enfoque funcionalista del estudio de la mente y de su correspondiente aderezo filosófico, la perspectiva funcionalista y computacional de la naturaleza e los estados mentales.

Por supuesto, la interpretación habitual de este texto es que se trata de una exposición brillante y original -y ciertamente lo es, situada en su contexto histórico- sobre la capacidad que tienen las máquinas computadoras para "pensar". El propio artículo desvela al mundo sus intenciones en su mismo comienzo: Propongo someter a consideración la siguiente pregunta: '¿pueden pensar las maquinas?'.  Más que la respuesta a esta pregunta, que el propio autor no ofrece de una manera clara, lo interesante del artículo es el enfoque que presenta y los supuestos implícitos de los que parte, que se dan por obvios, pero que no lo son en absoluto.

Puesto que Turing se confiesa incapaz de definir lo qué es "pensar", ofrece una solución tan pragmática como arbitraria, y se remite al conocido "juego de imitación". Las dos situaciones que se han descrito al comienzo de esta entrada ilustran dos variantes de este juego, aunque Turing parte de una versión original ligeramente distinta que luego modifica para adaptarla a un hipotético experimento con máquinas computadoras. Algunos autores han llegado a identificar hasta tres variantes del juego de imitación, pero la idea original no resulta afectada, en lo esencial. Se trata de ver si a través de un juego de preguntas y respuestas entre dos participantes, que no se ven las caras ni se pueden oir, uno de ellos consigue engañar al  otro acerca de su identidad. En el caso del test de Turing, se trata de confrontar a un interlocutor humano de forma aleatoria con otro ser humano o con una máquina computadora, sin que el primer interlocutor conozca en cada momento la identidad de su contraparte. Si la persona que está realizando el test no es capaz de distinguir, en una proporción preestablecida de los ensayos, si su contraparte es otra persona o si es una máquina computadora, entonces uno está legitimado para afirmar que la máquina en cuestión, "piensa". Turing se atreve incluso a proporcionar un criterio numérico: si el examinador promedio no logra la identificación correcta más que un máximo de siete de cada diez veces durante intervalos de cinco minutos de preguntas y respuestas, puede afirmarse que la máquina ha superado el juego de imitación. Puede afirmarse que la máquina piensa.


The_Imitation_Game     Turing_Test_Version_1        Turing_Test_version_3

De izquierda a derecha: el juego original de imitación con tres interlocutores humanos, el juego de imitación con la sustitución de uno de los interlocutores oculto por una computadora y por último, la interpretación estándar del test de Turing, que aparece en el artículo 'Computing Machinery and Intelligence'.   [Gráficos tomados del artículo de Wikipedia "El test de Turing"].

No es difícil darse cuenta de que la transición desde la pregunta original "¿pueden pensar las maquinas?" hasta la pregunta "¿pueden las máquinas computadoras pasar satisfactoriamente el juego de imitación"? se convierte en un enorme salto metodológico al vacío que Turing no se molesta en justificar más que con la ayuda de un argumento ad ignorantiam: puesto que no sabemos exactamente qué significa "pensar" y qué significa "máquina", utilícese un critero operacionalista que sustituya el significado de nuestro objeto de estudio por el diseño experimental de un test de control. Diseño experimental que por fuerza, y malgré el empirismo ingenuo, ha de incluir una idea preliminar de aquello que se quiere testar, aunque sea una idea que se maneja como si se tratara de una caja negra conceptual. Una caja negra de la que, sin embargo, se extraen algunas características observables. O, por mejor decir, las características que Turing postula como observables. Y este es el problema  que suelen arrastrar los criterios operacionalistas o empiristas del significado: la selección arbitraria de ciertas propiedades fenoménicas, visibles, de un objeto de estudio que funciona como una caja negra y del que ni siquiera se intenta una definición preliminar, siquiera a título provisional.

Dejando aparte el hecho de que, en la investigación científica, dar prioridad a la metodología sobre la semántica no es una buena idea -un investigador debería saber qué es lo que quiere estudiar antes de diseñar el correspondiente protocolo experimental, el qué antes del cómo- la propia selección de las mentadas características puede conducir a un sesgo indeseado en las conclusiones. ¿Por qué, por ejemplo, decide Turing que el juego de imitación, un juego basado en preguntas y respuestas sobre una variedad de temas, es más adecuado para monitorizar la capacidad pensante de una computadora que la realización de un complicado cálculo numérico? La única justificación que ofrece es que la realización de tales cálculos delataría de inmediato a la máquina en el propio juego de imitación. Pero se trata de una respuesta circular, ya que presupone el propio contenido de la pregunta. O, de otro modo, ¿por qué la capacidad de una computadora para jugar al ajedrez, o a una versión complicada del Tres en Raya, no se considera un criterio de inteligencia pensante suficientemente válido? Pues los juegos son, en el fondo, interacciones dialogadas a través de la utilización de un lenguaje normado, interacciones que echan mano de la capacidad de observación atenta, anticipación, razonamiento y  argumentación inferencial, características igualmente observables en lo que se entiende como "pensar". Y en esto, los fenomenistas y los empiristas lógicos estarían de acuerdo. Pero Turing no entra en explicaciones. Last but no least, en la época del floruit intelectual de Alan Turing existían varias definiciones y estudios disponibles sobre la mente y la actividad pensante, definiciones y estudios que podrían haber servido como una primera referencia para el diseño del experimento de las máquinas pensantes, pero nuestro autor parece ignorarlos deliberadamente.

A esta primera objeción, de carácter metodológico, cabría añadir una segunda, muy vinculada a ésta, pero con un perfil más epistemológico e incluso con cierta derivaciones ontológicas. En efecto, más allá de los cuestionables principios operativos del test de Turing, el instrumental epistémico que se pone en uso no puede ser más objetable. Veamos: se trata de determinar si realmente el hecho de que una computadora "supere" el juego de imitación -bajo la doble arbitrariedad de la elección del propio juego y del criterio numérico establecido para sancionar esa superación- implica que esa computadora pueda pensar. ¿Qué justificación presenta Turing en favor de esa tesis? Lo único que nuestro matemático puede alegar en su favor es el conductismo ingenuo y el criterio empirista del significado. El primero niega la pertinencia de los estados mentales en el estudio científico del comportamiento y sólo toma en consideración la conductas manifiestas. El segundo afirma que sólo las proposiciones protocolares que describen lo observado en un experimento o cuyo contenido puede ser confirmado por la experiencia tienen significado cognoscitivo. Contra el conductismo ingenuo, el propio Turing introduce la función mental del "pensar" como el objeto de estudio que debe ser testado; es decir, da por supuesta la existencia del pensamiento como un estado de la mente, aunque rehúse definirlo. Contra el criterio empirista del significado cabe argüir que todo diseño experimental y toda recolección de datos debe partir de una criba previa sistemática, cuyo fundamento es el conjunto de suposiciones teóricas preexperimentales que establecen cuáles son los datos pertinentes, a efectos explicativos, predictivos y confirmatorios o no confirmatorios. No todas las conversaciones, reales o simuladas, son expresiones fidedignas de la actividad pensante de los seres racionales. Pero Turing no establece un criterio preliminar en este sentido, porque no tiene una teoría sobre el pensamiento.

Además, la conclusión del experimento de simulación se apoya en la agregación de los resultados procedentes de los estados subjetivos y de las percepciones interiores de los participantes (su capacidad para ser o no ser "engañados" por la simulación computacional de una discusión con otra persona) , más que en el tratamiento estadístico de una serie de datos evaluables de forma objetiva y con márgenes definidos de error experimental. La agrupación de creencias individuales coincidentes -por ejemplo, coincidentes en que el interlocutor es un ser humano y no una máquina- no deja de ser una creencia agrupada o, si se quiere, una creencia compartida entre varios o entre muchos, pero creencia, al fin y al cabo ¿Es epistémicamente riguroso postular la existencia de un estado mental con base únicamente en la existencia de otro estado mental más o menos compartido? Retomando la primera situación con la que se abre esta entrada, ¿hay algún tipo de robustez inferencial en concluir que existe un estado mental de amor en una persona tan sólo porque existe otro estado mental compartido por terceros -la creencia o convicción más o menos conspicua- que así lo estipula?

Pero del planteamiento del test de Turing pueden, además, inferirse legítimamente algunas cuestiones ontológicas. Estas cuestiones cobrarían forma a través de una interpretación estricta y rigurosa de la propuesta de nuestro autor. Pues si lo que se propone en Computing Machinery and Intelligence es que la existencia de capacidad pensante en computadoras depende de una decisión basada en un agregado de reacciones individuales en el juego de simulación y en un cierto criterio numérico de corte aplicado sobre dicho agregado, ¿no se está afirmando que la existencia del pensamiento -y de la mente como conjunto de estados y funciones mentales- en un individuo o entidad surge de un acto volitivo -la decisión de postular esa existencia-, que no es, mutatis mutandis, sino otro estado mental, otra forma de pensamiento? ¿un acto volitivo que es además, exterior al individuo o entidad del que se postula su capacidad pensante? Ya no estamos hablando de la inferencia de la existencia de otras mentes por medio de un procedimiento epistemológicamente deficiente, sino de la creación de esas otras mentes por un acto, también mental, externo a éstas.  Una propuesta de esta naturaleza se situaría a medio camino entre el idealismo subjetivo clásico y un particular solipsismo colectivo de alcance reducido. Llevaría implícita, además, una confusión muy meritoria entre creer y crear. Volviendo a los dos ejemplos con los que se abre esta entrada, la aplicación estricta de los supuestos del test de Turing nos permitirían concluir que la creencia mayoritaria de los usuarios ocultos del canal de contactos en el enamoramiento de Menganita (mi falso perfil A de usuario) crearía, de hecho, ese amor en tanto estado mental. También nos daría todas las facilidades para afirmar que los voluntarios en el experimento de Milgran estaban generando un dolor real, tan sólo por su propia convicción de que tal dolor estaba ahí.

No acaba aquí el deshilachado de las consecuencias filosóficas que se derivan del test de Turing. Si, en efecto, sancionamos como pensante a un dispositivo computacional capaz de superar el juego de imitación (con independencia de las anteriores consideraciones epistemológicas y ontológicas), nos vemos obligados a preguntarnos si tal dispositivo puede conceptuarse como un ser vivo.  Hasta el momento, todo nuestro conocimiento científicamente avalado sobre pensamiento, mentes e inteligencias remite a los portadores de tales propiedades, es decir, a los organismos con un sistema nervioso mínimamente desarrollado. No consta, dado el estado actual de nuestro conocimiento, la existencia de mentes intangibles o incorpóreas o, como diría Gilber Ryle, de "fantasmas" dentro de máquinas. Y el enorme desarrollo experimental de la neurofisiologia cognitiva y emocional no sanciona de ningún modo esa tesis platónica y cartesiana. Más bien al contrario, los estados mentales, y la propia mente entendida como un conjunto (esto es, un objeto conceptual, no real, en el sentido de Bunge) de funciones mentales se identifican con procesos cerebrales empíricamente detectables. Lo que viene a avalar los supuestos de la teoría materialista de la mente de que no existen las mentes, sino los organismos "mentantes". Pero estas afirmaciones colocan a los postulantes convencidos del test de Turing ante un dilema importante: o aceptan que el juego de imitación no es un diseño válido para detectar capacidades pensantes o, si persisten en su empeño, han de certificar que las máquinas pensantes son, en algún sentido, seres vivos. O bien se mantienen fieles a una ontología idealista de corte platónico y, en contra de la creciente evidencia científica, siguen defendiendo la existencia de estados mentales inmateriales extracorpóreos. Algo que, por cierto, no resulta infrecuente entre matemáticos y, tal vez, entre programadores informáticos.

El artículo de Turing, pese a todo, ofrece interesantes reflexiones sobre las relaciones entre pensamiento y computación. Mencionemos unas cuantas.

  1. La tesis de que la capacidad de almacenamiento y la velocidad de procesamiento de una computadora resultan claves en el éxito del juego de simulación (características que, por otra parte, tienen una importancia manifiesta en la capacidad para jugar al ajedrez, por ejemplo).
  2. El argumento de desestimación de los archiutilizados teoremas de Gödel, cuyos contenidos Turing no considera relevantes en la discusión.
  3. Su reconocimiento del "misterio" de la conciencia, como una concesión (muy medida, eso sí) a la importancia de contar de algún modo con una teoría de la mente.
  4. Su esbozo teórico del funcionamiento de la mente, que él entiende, grosso modo, como la resolución algorítmica programada de un problema para el que la máquina (incluida la máquina humana) ha sido diseñada y la detección programada de errores en sus propios procedimientos algorítmicos.
  5. Su particular visión del "argumento de la sorpresa", esgrimido, según él, por quienes niegan la capacidad pensante en máquinas computadoras.
  6. El criterio nomológico para describir la conducta de los seres humanos, que pivotaría sobre el carácter natural-legaliforme de las pautas de comportamiento observadas.
  7. La muy interesante propuesta de las supuestas capacidades supercríticas de la mente humana (la generación de todo un hatillo de ideas, susceptibles de estructurarse en un cuerpo teórico, a partir de una idea inicial que obraría como simiente, como el árbol de la mostaza surge espléndido desde la modesta semilla) como criterio de constatación de la presencia de mentes inteligentes.
  8. La sugerencia de un proceso de desarrollo intelectual en la programación de las computadoras que imite el aprendizaje de los niños pequeños, desde una perspectiva de aprendizaje condicionado que bascularía sobre la recompensa y el castigo.
  9. La introducción, tal vez de contrabando, de la idea de un "lenguaje  simbólico" (es decir, un lenguaje referencial y por tanto con carga semántica), lenguaje orientado al proceso de aprendizaje mencionado en el punto anterior.
  10. Y, por último, la definición tentativa que Turing nos regala sobre el comportamiento inteligente: el comportamiento inteligente supuestamente consiste en apartarse del comportamiento completamente disciplinado que entraña la computación.
En definitiva, y pese a los premios Loebner, que pretenden actualizar la vigencia de la propuesta original de Turing y evaluar la "inteligencia" de los programas de ordenador siguiendo escrupulosamente las pautas del juego de imitación el diseño experimental ofrecido por este gran matemático suscita más dudas filosóficas de las que pretende solventar. Dudas profundas que atañen a la metodología, a la epistemología y a la propia ontología, especialmente desde un punto de vista realista y materialista. Probablemente por esta razón, el enfoque imitativo tiene en la actualidad una importancia muy acotada en el amplio escenario de las investigaciones sobre Inteligencia Artificial y en el diseño de nuevos experimentos de detección de la conciencia en ordenadores bajo criterios de discriminación visual, como los llevados a cabo por Christof Koch y Giulio Tononi en 2008.

Sólo cabe esperar y ver si, deshilachada la madeja, al final del laberinto nos aguarda la confusa figura del Minotauro o más bien el rostro reconocible de uno de los nuestros.

NOTA AL PIE: Me informa Eparquio Delgado sobre el carácter fraudulento de los experimentos de Milgram tal y como aparecen en su descripción habitual en los medios académicos y de comunicación. Me enlaza este artículo, cuya lectura recomiendo. También me advierte sobre las frecuentes simplificaciones que los críticos del conductismo ponen sobre la mesa al hablar de esta corriente psicológica. Creo que son dos matizaciones muy interesantes, pero que no afectan, en lo esencial, a la argumentación que presento en esta entrada contra el test de Turing. Por una parte, podríamos imaginar que la descripción canónica del supuesto experimento de Milgram es en realidad un experimento mental, y las conclusiones no cambiarían gran cosa. Pues lo que me interesa resaltar de la real o supuesta investigación de Milgram es un aspecto muy secundario -el juego de simulación y el convencimiento de los participantes de que estaban infligiendo un dolor real-, un aspecto que no resulta particularmente controvertido y sobre el que sólo cabe hacer matizaciones numéricas. En cuanto al conductismo, y con independencia de las propuestas reales de Watson y Skinner, el test de Turing, tal y como lo describe su autor, parece ejemplificar una forma radical, ingenua o incluso caricaturesca de las tesis conductistas más serias. Que quepa o no adscribir con rigor este test al conductismo tiene, en realidad, poca importancia, y no afecta a la crítica filosófica general que merece la propuesta de Turing.


Comentarios

  1. Excelente. Estoy de acuerdo. Massimo Pigliucci también:
    https://youtu.be/L-rOe0nwieQ?t=13m20s

    ResponderEliminar
  2. Yo, no.

    Si entiendo bien, la primera objeción es un argumento por analogía. Si alguien puede imitar los efectos del dolor y engañar a un observador, entonces podemos concebir que algo pueda imitar los efectos de pensar y también engañar a un observador. Pensar, e interactuar con el pensamiento con otro ser pensante, es una actividad mucho más compleja que imitar el dolor. La analogía no es buena.

    Pero aún así, el test sigue diciendo algo que no se refuta: si no tienes manera de distinguir si estás interactuando con un ser pensante o con una máquina que lo imita sigues sin tener ninguna razón para atribuir pensamiento al primero y no al segundo. Por definición de haber pasado el test de Turing. Si cuando cumples las bodas de oro con tu pareja te confiesa y te muestra que bajo la tapa de los sesos tiene cablecitos y chips en lugar de materia gris, ¿dirás que tu pareja no pensó durante los años que te tuvo engañado?

    ResponderEliminar
  3. José Luis:

    Tu primera objeción no me parece muy sólida. Si consideras que la analogía deel experimento de Milgram es deficiente, puedes imaginar un experimento mental que parta de esa misma situación, pero enriquecido con nuevas expresiones de conducta y nuevos comportamientos simulados. Ésos no sólo reflejarían sufrimiento por el dolor físico (como en Milgram), sino también otros estados mentales más o menos asociados: angustia, ansiedad, alivio, esperanza, intentos de razonamiento con el "torturador", búsqueda de empatía y otros más. Es decir, puede uno imaginar un experimento mental que complete el experimento real de Milgram añadiendo un conjunto de nuevos estados mentales simulados que se acerquen más a la panoplia de conductas simuladas que contempla el test de Turing.

    Aunque esto tampoco es necesario. El primer experimento mental que describo en la entrada, el del canal de contactos por internet, contempla una situación dialogada entre dos usuarios -uno de ellos impostado- en la que pueden tener cabida prácticamente todoas las conductas que uno esperaría ver en un test de Turing estándar.

    De este modo, tanto la "ampliación mental" del experimento de Milgram como el experimento mental del canal online de contactos guaradn, tal y como yo lo veo, un parecido fuerte con la situación que Turing ideo para su test.

    En cuanto a tu segunda objeción, si yo me encontrara ante una situación como la que describes, podría pensar una de estas dos cosas:

    - O bien que el equipo de programadores informáticos y de constructores de equipos robóticos han hecho un trabajo impresionante, y no cabría sino felicitarles por ello, por haber conseguido tenerme engañado durante cincuenta años.

    - O bien que, efectivamente, el robot que ha sido mi pareja durante tanto tiempo es una entidad capaz de pensar y albergar sentimientos y emociones.

    Pero lo que nunca pensaría es que el hecho de haber sido engañado durante todo ese tiempo al pensar que mi pareja era un ser humano fuera condición suficiente para postular o decretar que el robot que en ese momento tengo delante es, realmente, un ser pensante y sintiente.

    La situación, de nuevo las analogías, no hubiera sido muy distinta si mi pareja, en vez de ser un robot, hubiera sido una actriz que en el inicio de nuestra relación fue instruida sobre mi modo de ser y sobre el mejor modo de actuar ante un abanico amplio de situaciones cotidianas por, por ejemplo, un equipo de psicólogos que ya me conocía de antes. El hecho de haber creído lo que la actriz-pareja decía sentir por mi no convierte, de facto, esos falsos sentimientos en sentimientos auténticos.

    Pero en realidad, las consideraciones anteriores son irrelevantes por el simple hecho de que la situación que planteas no es un test de Turing. Ni siquiera es, en principio, un juego de simulación.

    Saudos.

    ResponderEliminar
    Respuestas
    1. El juego de simulación es una cosa, una manera limitada de entender el test de Turing, máxime cuando esas maneras son realmente limitadas, como el propio ejemplo que pone Turing en su artículo. Pero eso era solo una ilustración. El verdadero test consiste en darle la misma oportunidad a la máquina que a la persona. No una interacción corta, no un ambiente controlado, sino la misma completa interacción por la que atribuyes pensamiento a todo lo que se parece a las personas a quienes ya atribuyes pensamiento. Como en el caso de la pareja robótica. Dices que tienes dos posibilidades. Sí, una vez que lo sabes tienes dos posibilidades (por lo menos) sobre qué creer, pero solo una de ellas es coherente con la única posibilidad que se asignabas antes de saber que era una máquina. En cualquier caso, el test es lo que la máquina pasaba antes de tú saber que lo era. Y antes de saberlo tú no tenías ningún motivo para atribuir a tu hermana inteligencia y capacidad de pensar y a tu pareja no. De eso se trata. Si no puedes distinguir, no puedes atribuir cosas distintas.

      Eliminar
    2. El problema del test es el uso equívoco del término "pensar". Si de entrada definimos "pensar" exclusivamente como competencia lingüística, de salida no podemos atribuir estados mentales ni a las máquinas ni a las personas. Hoy atribuímos estados mentales a otras personas por analogía con los propios, porque las otras personas son los únicos seres lingüísticamente competentes que conocemos. Pero es el hábito lo que hace convincente la analogía. Si empezamos a relacionarnos con robots parlantes, antes de concederles derechos, querremos saber lo que cuece su caja negra. La dimensión pragmática del habla, la comprensión de su contenido tácito o la creación de metáforas de nuevo cuño, queda fuera del alcance de las máquinas sintácticas. Si algún día, algo distinto a un ser humano llega a pasar el test de Turing, albergará un cerebro artificial, no una máquina sintáctica. La realización múltiple de una función en distintos sustratos no es lo mismo que la simulación de sus resultados. La aceptación del test como prueba de estados mentales es un atajo injustificado al computacionalismo psicológico. Da la vuelta al calcetín para que pensemos en los seres humanos como máquinas sintácticas capaces de pasar el test. No cuela.

      Eliminar
  4. Turing es muy claro en su artículo al describir el juego de simulación como base de su test, y hasta donde yo sé él no desarrolló posteriormente este diseño. Por lo tanto, hablar en rigor del "test de Turing" es hablar del experimento mental que él mismo presentó en su artículo 'Computering machinery and intelligence'. Turing desecha la necesidad de una simulación más completa -por ejemplo, dotando a la máquina de una apariencia humana indistinguible de una persona biológica- y creo que esto es importante. Él afirma que su diseño de simulación es condición suficiente para testar la capacidad pensante de una máquina. No ve la necesidad de imaginar situaciones distintas con ambientes no controlados ni interacciones duraderas con robots antropomorfos. Turing es muy claro al respecto: interacciones de cinco minutos y porcentaje de fallos sobre la identidad del interlocutor oculto del treinta por ciento o superiores. Con base en lo que Turing considera condición suficiente yo me permito criticar su propuesta, la que aparece en su artículo: es metodológicamente deficiente, epistemológicamente incompleta y genera serios problemas desde una interpretación ontológica. Y al desarrollar la idea, lo que Turing nos dice es que no estamos testando las propiedades pensantes de una máquina particular -él insiste sobre este punto- sino las propiedades pensantes de una "máquina abstracta" que no es otra cosa sino un programa informático.

    Lo que se está testando en la situación de interacción continuada con el robot antropomorfo no es, desde mi punto de vista, sólo el funcionamiento de un sofisticado software, sino la ejecución de éste en una máquina cuyos principios de construcción y cuya arquitectura computacional podrían replicar -no simular, sino replicar- tan al detalle la estructura neural de un ser humano que resultaría razonable suponer a ese ente robótico dotado de inteligencia. O podría no ser así. Pero en todo caso esa suposición se haría con base en un estudio detallado de ambos ingredientes, el programa informático y la arquitectura computacional física del robot. Por esta razón sostengo que el escenario que esatmos imaginando es muy distinto del diseño original del test de Turing, que es en el yo centro mis críticas.

    Pero el quid de la cuestión, a mi modo de ver, sigue siendo el mismo: ¿con base en qué mis creencias originales sobre la naturaleza humana de mi pareja, creencias sostenidas durante poco o mucho tiempo y que a la postre resultaron equivocadas, pueden decretar o postular la naturaleza pensante del robot que tengo delante? ¿hasta qué punto mis experiencias subjetivas sobre un objeto de estudio pueden determinar la verdadera naturaleza de ese objeto? La incapacidad de distinguir apariencias no es condición suficiente para atribuir identidad en las esencias, por decirlo de alguna manera. El principio de identidad de los indiscernibles de Leibniz no puede aplicarse en estas circunstancias.

    Saludos.

    ResponderEliminar

Publicar un comentario