Inteligencia natural vs. Inteligencia artificial: la conciencia (y II) BY ESTER ASTUDILLO

Uno de los obstáculos fundamentales para  profundizar en el estudio de la inteligencia artificial desde una perspectiva científica no reduccionista sino ancha de miras es el problema de la conciencia: a día de hoy no hay siquiera unanimidad para definirla; mucho más peliagudo, por supuesto, es el desconocimiento del proceso que le da emergencia: ¿cómo es posible que de algo puramente material como es el cerebro y sus pringues cálidos y resbaladizos dimane algo radicalmente privativo, subjetivo y enteramente cualitativo? El contexto parece abocarnos a la archisabida y ya secular dicotomía: o estás con Descartes y eres defensor del dualismo cuerpo-mente como materias separadas e inconmensurables, o eres materialista puro y duro y niegas que la conciencia exista. Pero, ¿cómo a estas alturas vamos a vernos reducidos a elegir entre dos tesis que ya han sido de una u otra forma refutadas?

            De la literatura científica sobre la cuestión se desprende cierto tufillo condenatorio de aquellos que no ven el cerebro como un computador: espíritus rancios e involucionistas defensores o bien del dualismo, o bien de aquello etéreo llamado tradicional y religiosamente ‘alma’. Lo habitual es que los científicos ‘duros’ orillen el dilema y dejen su resolución a los ‘filósofos’, llegando incluso a argüir que, siendo algo de naturaleza cualitativa, subjetiva e inmensurable (resumiendo, ‘escurridiza’), la conciencia no es objeto del saber científico. ¿Acaso el dolor, tanto el físico como el psíquico, no comparte esas mismas características? Pero no por ello ha sido excluido del corpus del saber científico: tanto la medicina como la psicología, por nombrar solo dos disciplinas, se ocupan de él.

            Entre los expertos orientados a la IA, la conciencia es algo irrelevante para la noción de inteligencia; probablemente ahí estribe uno de los escollos insalvables que eternizan el enfrentamiento entre los científicos ‘humanistas’, que descartan que la IA pueda jamás mimetizar la inteligencia humana (entendida ampliamente), y los científicos cognitivistas, que equiparan el funcionamiento del cerebro al de un procesador computacional (que solo requiere creciente desarrollo, capacidad de almacenamiento, rapidez, memoria…) y que tienen una visión ‘estrecha’ de la inteligencia.

            Nagel y Searle, destacados filósofos estudiosos de la conciencia como cualidad privativa de algunos seres vivos superiores, la postulan como límite al desarrollo de la IA, por más que esta consiga ensanchar su territorio. Ninguno de ellos es partidario de una versión estrecha de conciencia, tal como ‘autoconciencia’ o metarreflexión, sino sencillamente como el conocimiento de existir, de tener un cuerpo, de ocupar un espacio en el entorno (capacidad que muchos animales también han desarrollado) y entre los humanos, además, de sentirse en todo momento vital imbuidos de un tono emocional determinado -lo cual no equivale a experimentar una emoción-: más bien significa que el tiempo de vigilia se sucede mientras el individuo se siente a veces indiferente, a veces abúlico, a veces pletórico, a veces desanimado… Uno existe sintiéndose sí mismo y aunque el tono emocional varíe con los acontecimientos cotidianos, la conciencia de sí mismo es única. La crucialidad en la conciencia de ese rasgo cualitativo, que ha desembocado en el uso desorbitado del término qualia, explica por qué Nagel ya en 1974 publicó, con trampa, un artículo sobre la cuestión con el sorprendente título de «What is it like to be a bat?» [«¿Qué se siente ser un murciélago?»]

            Además de ese atributo de qualia, estrechamente ligado a lo subjetivo de la experiencia y desarrollado extensamente por Searle, a la conciencia se le suele atribuir la cualidad de intencionalidad: no solo nuestras acciones tienen intenciones, en el sentido estrecho de que buscan un resultado determinado en el mundo; el mero hecho de poseer un contenido referencial dota a la conciencia de intencionalidad también, entendiéndola de forma abstracta, tal y como la conciben los filósofos de la mente: referencia como contenido semántico.

Hillary Putnam1 escribió en los ochenta el artículo «Brains in a vat» ayudándose precisamente de esa acepción de ‘referencia’ para refutar el argumento de que cualquier máquina que trate de simular al cerebro humano (en el artículo se trataba de un cerebro en crudo mantenido vivo en una cubeta, sumergido en una solución biológica idónea y conectado a unos electrodos, pero para el argumento bien podría tratarse de cualquiera de los personajes de la película Matrix) pueda en realidad hacer aseveraciones o negaciones (lo que en lógica se denomina proposiciones o sentencias) con valor de verdad sobre el gran mundo que hay ahí fuera, más allá del universo donde se hallan inmersos esos pobres cerebros: más allá del restrictivo universo de los cerebros-en-la-cubeta. Es decir, aunque ese cerebro pudiera argüir: «No soy una máquina» y eventualmente pasara el test de Turing y engañara a un humano sobre su verdadera naturaleza, todo cuanto diga no se refiere a máquina alguna, aunque sepa decir la palabra ‘máquina’; la referencia que el término emitido por tal cerebro establece lo vinculará como mucho con una imagen de ‘máquina’ pero no con el ‘concepto’ de tal cosa, que toma en cuenta su ‘funcionalidad’ en el mundo ‘real’, su ‘situacionalidad’.

            Por decirlo en pocas palabras, el cerebro, o la máquina -o el ordenador, para el caso- no ‘saben’ lo que es una máquina, ni un humano. No saben qué significa la aserción «soy un humano» o «soy una máquina/un robot» aunque la emitan en las situaciones adecuadas e incluso consigan persuadir a un humano de que es su igual. En realidad, no saben nada de nada -por supuesto, tampoco de sí mismos. De ahí que el artículo de Putnam se abra con el objetivo de refutar la posibilidad de que ese tal cerebro -a estas alturas, léase ‘artefacto’- pueda jamás plantearse la cuestión de si es o no un cerebro en una cubeta.

            Todo esto, claro está, viene a colación de la centralidad de la conciencia en el ser vivo inteligente (sí, ¡incluso para los murciélagos!). Dado que la conciencia es ante todo conciencia de ser un sí mismo, y dado que ni un cerebro en una cubeta ni, por ende, ningún artefacto de IA, por más sofisticado que sea, podrá nunca, según el argumento de la referencia que desarrolla Putnam, resumido más arriba, emitir sentencias que sean ni verdaderas ni falsas con respecto al ancho mundo que se extiende fuera del suyo, jamás ‘sabrán’ que son cerebros-en-una-cubeta, o máquinas, o robots; es decir, jamás tendrán la curiosidad de inquirirse sobre nada, tampoco sobre su propia naturaleza. En definitiva, nunca tendrán conciencia. Y puesto que la conciencia es central para la vida inteligente y su mantenimiento, debemos concluir que los artefactos en IA jamás podrán emular la vida y suplantar a ningún humano, que en cambio sí puede dudar sobre la naturaleza de su existencia, por más sofisticada que llegue a ser la tecnología.

NOTAS

1. En realidad, la argumentación de Putnam es una versión actualizada y ‘materialista’ del argumento cartesiano para demostrar la existencia del yo a través del pensamiento, refutando la posibilidad del engaño de un hipotético genio maligno que le empuje al escepticismo sobre la existencia del mundo -solo que sin otorgar en ello ningún papel a Dios. Putnam utiliza el argumento, sin embargo, para otro fin: demostrar que ningún artefacto podrá jamás tener ‘conocimiento’ en el sentido en que lo entendemos, como correspondencia verdadera entre los predicados que puedan emitir y el mundo real, incluido sobre sí mismos (conciencia).

5 comentarios

  1. Buena reflexión Esther! matices, el primero tenemos conciencia por un cambio bio entre los monos y nosotros. Nos vemos y reflexionamos criticamente. con respecto a las máquinas por llamarles asi. primero transplantaremos nuestra consciencia a ellas, aqui, puedo usar el termino intuición cosmica (me lo he inventado), o sea hablar de algo que va aocurrir antes de que ocurra. Y la IA, la segunda, evolucionará hasta desarrollar consciencia. Podriamos decir no, pero también si. Saludos Juan

    Me gusta

  2. Penrose y Searle, y ahora todos los físicos cuánticos, abogan por entender la conciencia como un estado cuántico, es decir, como un estado de la materia. Pero aún no saben cómo explicarlo.

    Le gusta a 1 persona

Deja un comentario