En noviembre del año pasado, el equipo de DeepMind presentó su nueva arquitectura de inteligencia artificial: MuZero. Hasta ahora, el buque insignia de las arquitecturas de _deep learning_ era AlphaZero, capaz de defenestrar, sin el más mínimo problema, tanto a los mejores jugadores del mundo al ajedrez, al Go o al soghi, como a los mejores programas de juego existentes como Stockfish o Elmo.
Sin embargo, AlphaZero padece una limitación muy importante a la hora de percibir su entorno: toma decisiones a partir de una información completa de su universo. Cuando jugamos al ajedrez, disponemos en todo momento de un conocimiento completo de dónde están situadas las piezas del tablero, y en virtud de esa información elegimos nuestra estrategia de juego. Pero, en la vida real, esto no sucede así: nunca tenemos toda la información sobre lo que va a pasar y nuestro entorno no está tan formalizado ni tan reglamentado como una partida de ajedrez.
En lógica matemática solemos decir que nuestro entorno está lleno de _conjuntos borrosos_, es decir, que los límites de las cosas no son tan precisos como a un programa de ordenador clásico le gustaría que fueran. Nuestro mundo es caótico, desordenado, lleno de sucesos fortuitos, impredecibles… ¿cómo una máquina puede enfrentarse a algo así?
Esta es la gran novedad de MuZero. Su arquitectura está formada por la clásica red de aprendizaje profundo, pero lleva incorporadas otras tres redes. Una sería la de "control", encargada de valorar la situación y de elegir en función de las recompensas obtenidas, pero las otras dos son capaces de "imaginar" simulaciones del mundo en el que MuZero actúa. Al igual que parece que lo hacemos los seres humanos, el programa tiene "ideas" de cómo es probable que funcione la realidad, pero ideas esquemáticas, imperfectas, y completamente desacertadas en muchos casos. Y, atención, lo más brutal es que cuando se ha puesto a MuZero en acción, ha mejorado el estado del arte en la mayoría de los juegos a los que se ha enfrentado. La relevancia científica de este hecho es muy grande porque estamos ante una posible explicación del porqué de la _mente_.
Introduciendo la mente en la ecuación

Durante los últimos tiempos, el marco conceptual que ha dominado todo el estudio científico de la psicología humana ha sido eminentemente materialista. Nuestra mente es aquello que hace el cerebro, y el cerebro es un órgano biológico tan explicable en términos físicos como puede serlo el riñón o los pulmones. Sin embargo, el problema ha estado en que lo que tradicionalmente entendemos como mente tiene una serie de propiedades que son muy difíciles, si no imposibles, de explicar en términos estrictamente materialistas.
Mis pensamientos o sentimientos no se ven, no puedo observarlos por un microscopio, no son cuantificables, al menos de manera directa… Con un electroencefalograma o una resonancia magnética puedo observar qué zona de mi cerebro se activa cuando pienso tal o cual cosa, pero ese pensamiento se parece en muy poco a actividad electroquímica en una zona de mi neocórtex. Es por ello por lo que muchos filósofos y científicos han defendido teorías que, de uno u otro modo, eliminaban la mente. El filósofo norteamericano Paul Feyerabend fue el primero en postular el _materialismo eliminativo_, al que se adhirieron neurocientíficos como Paul y Patricia Churchland. Así mismo, desde posturas filosóficas actuales como el conductismo o el pragmatismo, autores tan populares como Wittgenstein, Gilbert Ryle, Daniel Dennett o Richard Rorty, han negado, con diversos grados y matices, distintos aspectos de la mente.
Y es que el argumento es claro: ¿para qué hace falta tener una mente si podemos crear un computador que puede hacer lo mismo y mucho mejor sin ella? AlphaZero no tiene un "lugar" en donde se pone a deliberar qué jugada hacer. No siente ningún deseo de ganar ni ningún miedo a perder, no tiene ningún _mundo interno subjetivo_, no tiene ningún _yo_ que no desea que lo desconecten como tantas veces nos ha mostrado la literatura y el cine de ciencia ficción. Pero, sin embargo, es endiabladamente bueno haciendo lo que hace, muchísimo mejor que un humano. Entonces, ¿por qué la evolución biológica va a invertir recursos en generar una mente si sin ella se pueden hacer las cosas mucho mejor? ¿No será la mente tan solo una ilusión? ¿O no será un subproducto de la evolución, un _epifenómeno_ sin función alguna, como lo es el mero ruido del motor de un coche?
El caso es que MuZero representa, cómo mínimo, evidencia a favor de la existencia de _contenidos mentales_ con una función muy clara, y eficaz, a la hora de realizar tareas. Ahora, cualquiera que niegue la existencia de la mente apelando a su supuesta carencia de funcionalidad, debería explicar el éxito de MuZero.
Pero, si queremos tener una buena explicación de la mente nos queda un último escollo. Hay una faceta de la psique que se nos ha resistido muchísimo: _la consciencia_. Ya de por sí nos cuesta definirla: ¿qué diablos es la consciencia? Sabemos bien diferenciarla de su estado opuesto: sabemos muy bien que cuando dormimos la consciencia se apaga y que cuando despertamos se enciende de nuevo. ¿Pero qué es lo que se enciende? Un mundo. Abro los ojos y siento los molestos rayos de luz que entran en mi dormitorio por las rendijas de la persiana. Siento la suavidad de la almohada, la textura de la manta. Huelo el delicioso olor café que está preparando mi mujer… Y no solo el mundo exterior, sino también un mundo _dentro de mí_: recuerdo, "en mi cabeza", que tengo que entregar un informe a mi jefe y, al hacerlo, "veo" su cara severa regañándome si no lo hago a tiempo. Soy consciente de mis pensamientos, emociones, sensaciones, deseos, miedos…
El camino hacia la consciencia en máquinas
Las máquinas no han conseguido acercarse ni un ápice a la experiencia consciente: ni AlphaZero, ni siquiera MuZero, tienen unas migajas de consciencia. Son tan inconscientes como mi tostadora. Vale pero ¿no hay forma de implementar consciencia en máquinas? Sí: vayamos a ver qué nos dice la psicología o las neurociencias de la consciencia y, a partir de ahí, pongámonos a la obra.
Eso es lo que hizo el científico cognitivo de la Universidad de Memphis, Stan Franklin. La teoría más famosa en la actualidad sobre el funcionamiento de la consciencia es la Teoría del Espacio de Trabajo Global (_Global Workspace Theory_) del psicólogo holandés Bernard Baars. En ella se nos dice que nuestra mente funciona como una especie de obra de teatro. El escenario representaría nuestra memoria de trabajo, es decir, la memoria que utilizamos para realizar cualquier labor.
Por ejemplo, si yo soy un carpintero fabricando un armario, en mi memoria de trabajo estarán las funciones de las herramientas que estoy usando, los tipos de madera que tengo a mano, el "plano mental" del armario que quiero construir, etc., sin embargo en mi memoria de trabajo será difícil que esté el recuerdo de mis últimas vacaciones en Ibiza, y si aparece será como una interferencia que, seguramente, me distraerá de mis objetivos. Dicho de otro modo: la memoria de trabajo es toda la información y habilidades de las que dispongo para hacer una tarea (en términos informáticos podríamos decir que es nuestra memoria RAM).

El foco de luz que se mueve a lo largo del escenario para iluminar a los actores representaría el foco de atención de la consciencia, es decir, de lo que yo soy consciente ahora mismo. Entre bambalinas, multitud de procesos inconscientes atienden a situaciones contextuales de la realidad y, en virtud de ellos, "sacan actores a escena", es decir, hacen emerger a la consciencia elementos que permanecen inconscientes en función de las necesidades del individuo.
Por ejemplo, necesito reunirme con un amigo y, de repente, aflora en mi consciencia el recuerdo de que está de vacaciones, por lo que no podré verlo hasta dentro de unas semanas. Ese "recuerdo" sería un elemento inconsciente que ha sido "sacado a la luz" de la consciencia en virtud de mis necesidades. El "foco luminoso" sería el instrumento que el "director de orquesta" utilizaría para tomar decisiones. La idea clave, y que constituye una aportación muy original, es que el contenido "iluminado" en el escenario se hace _globalmente disponible_ o accesible para otros tantos procesos que quedarían representados en la metáfora como "el público de la obra". Lo característico de los estados conscientes es que están disponibles para su uso para muchos otros procesos, mientras que los estados inconscientes serían más específicos y, por tanto, menos utilizables globalmente.
Franklin y su equipo se pusieron entonces manos a la obra: había que implementar la teoría de Baars en un computador ¿Quién financiaría la empresa? El Tío Sam. En Estados Unidos, una buena parte de investigación en IA la lleva a cabo el ejército. La _Office of Naval Research_ contrató a Franklin para resolver un problema que, en principio, no tenía nada que ver con la consciencia. Cuando un marinero terminaba de realizar cualquier servicio, había que darle alojamiento y asignarle nuevas tareas. Esta tarea logística era compleja y para ella se dedicaba el trabajo de hasta unas trescientas personas denominadas _detailers_. La marina quería automatizar tan costosa tarea y encargó a Franklin el trabajo, y Franklin lo aprovechó para llevar a cabo sus ideas: automatizaremos la tarea sí, pero lo haremos mediante un sistema que implemente la teoría de la consciencia de Baars.
Y así nació IDA (_Intelligent Distribution Agent_), un cuarto de millón de líneas de código en Java que han constituido el intento más poderoso de crear una máquina que pueda, al menos, emular el comportamiento consciente de un ser humano. IDA debía optimizar los costes de cada mudanza a la vez que atendía a las necesidades y deseos de los marineros, siempre ajustándose a la normativa y políticas de la marina que, usualmente, cambiaban según circunstancias. Para hacer todo esto, IDA se comunicaba con los marineros por email, por lo que debía usar y comprender el lenguaje natural con un cierto nivel de competencia.
IDA y el intento de emular el comportamiento humano en un computador

IDA "percibía" el mundo a través de tres "modalidades sensoriales": lectura de correos, análisis de base de datos (que contendría registros de personal, ofertas de trabajo, lista de marineros a asignar, etc.) y procesamiento de información a través de comandos del sistema operativo. Cada sensor requería una base de conocimientos y un espacio de trabajo propios. Cada base de conocimientos era una red semántica fluida (_slipnet_). En el centro de todo el sistema estaba el foco que representaba la información supuestamente "consciente". Tal y como indica la teoría de Baars, la información consciente se caracteriza por ser accesible para todo el sistema.
Toda la arquitectura está basada en la presencia de multitud de _codelets_, pequeños programas especializados para monitorizar un determinado suceso, que compiten entre ellos tanto para ocupar el foco de atención consciente como para indicar que acción debe realizar el sistema. El comportamiento de los codelets está inspirado en el modelo de _pandemónium_ propuesto por primera vez por el matemático Oliver Selfridge a finales de la década de los 50 del siglo pasado.
Supongamos que queremos construir un programa que reconozca competentemente letras, a pesar de que éstas estén escritas en diferentes estilos caligráficos. El modelo de Selfridge consistiría en construir una arquitectura basada en la presencia de multitud de pequeños programas muy especializados llamados _diablillos_ (_demons_) establecidos en tres capas.
Primero estarían los _diablillos de la forma_, especializados en apreciar únicamente un aspecto muy concreto de cada letra. Por ejemplo, uno podría estar especializado en detectar líneas rectas, otro curvas, otro un círculo, etc. Después habría otra capa de _diablillos cognitivos_, uno por cada letra del abecedario. Éstos "gritarían" si reciben la información pertinente a su letra de los diablillos de la forma. Por ejemplo, el diablillo cognitivo "A" gritaría mucho si recibe información de los diablillos de la forma cuando alertaran de la existencia de triángulos, líneas rectas o una línea transversal tal y como suele tener la letra "A". El diablillo "O", por el contrario, solo recibiría información de formas redondeadas o de ausencia de cualquier línea transversal. Entonces, en una tercera capa estaría el _diablillo decisor_, quien "escucharía" a todos los demás diablillos y seleccionaría cuál es el que grita más.

Los codelets serían los diablillos de IDA, estarían "sentados viendo la función teatral" y tendrían un valor que crecería o decrecería (los codelets "gritarían") en función de si observaban en el escenario cierto parámetro en el que se estuvieran especializados. Ese valor se transmite a otros codelets específicos para tomar decisiones (_diablillos decisores_) que se activarán si dicho valor supera un determinado umbral.
Muy interesante es que IDA tenía un módulo emocional que interactuaba con el módulo de conducta a través de un tercer módulo de impulsos (_drives_). IDA podía sentir cierto "estrés" si cometía errores, por ejemplo, al no entender bien el correo electrónico recibido de un marinero. Emociones de este tipo, al igual que en los humanos, tendrían una función moduladora: si IDA estaba estresada por un asunto era más probable que dedicará más recursos a ese asunto que a otros.
En la actualidad IDA está siendo ampliada a un nuevo sistema denominado LIDA (_Learning IDA_), el cual incorpora nuevos mecanismos de aprendizaje y pretende tener un mayor rango de implementaciones que no tan solo servir como _detailer_ en la marina, por ejemplo, en robots. Quizá lo más interesante de esta nueva implementación sea el concepto de _ciclo cognitivo_: un bucle de actividad flexible que, habitualmente, comienza por la percepción y termina con la acción, que en humanos se realizaría de entre cinco a diez veces cada segundo.
Los ciclos se ejecutarían en paralelo, si bien su linealidad se garantizaría mediante la consciencia. Franklin nos describe su funcionamiento en varios pasos: percepción, activación de memoria preconsciente, competencia de los codelets por el foco de la consciencia, emisión consciente, reclutamiento de recursos en virtud de lo que se es consciente, jerarquización de objetivos, y ejecución y ponderación de la acción. Parece muy plausible, dado lo que sabemos, entender nuestra mente como muchos procesos cíclicos funcionando en paralelo e interactuando entre sí.
A la hora de almacenar la información LIDA incorpora varios tipos de memorias funcionales propios de la literatura psicológica contemporánea como son la memoria sensorial, sensoriomotora, procedimental, episódica, declarativa… buscando replicar con la mayor precisión posible la arquitectura mental humana.

De acuerdo, un modelo muy completo y sofisticado, pero vamos a lo importante ¿Es LIDA un artefacto consciente? ¿Siente algo? ¿Hay una _x_ tal que esa _x_ es ser LIDA al igual que hay una _y_ tal que ser esa _y_ es ser Donald Trump o usted mismo? Franklin nos dice que el único tipo de consciencia que él atribuiría a su creación sería la _consciencia funcional_, es decir, que LIDA puede realizar unas funciones similares a los que hace una consciencia real. Sin embargo, a la que los filósofos consideran la auténtica consciencia, la _consciencia fenoménica_, LIDA no llega, aunque Franklin sostiene que, si lo pensamos bien, tampoco hay tantas razones convincentes para negársela rotundamente.
Pensémoslo: ¿cómo sabemos que otra persona es consciente? Porque su conducta se asemeja mucho a la nuestra en tanto que seres conscientes. Las personas hablan, caminan, mueven sus brazos… acciones para las que nosotros usamos la consciencia. Entonces, _por analogía_, aunque sin ninguna certeza, suponemos que los otros son conscientes. Pero piense el lector que el mundo fuese una broma de un dios macabro en el que usted es la única persona consciente siendo todo el resto de los seres, por ejemplo, robots programados para parecerlo, o meras alucinaciones propias de un sueño… Podría ser, porque yo no tengo acceso a la consciencia de los demás. No sé si los demás sienten el dolor o la alegría de la misma manera que yo ¡Podría ser yo el único organismo sufriente del universo!
Entonces, si nosotros no somos capaces de decir, con certeza científica, que los otros son conscientes ¿por qué les exigimos tanto a las máquinas? ¿No podríamos pensar, _por analogía_, que si una máquina hace exactamente lo mismo que una persona consciente, esa máquina _es_ consciente, al igual que hacemos con nuestros hermanos, amigos y familiares?
Al negar, en principio, esa consciencia a las máquinas por el hecho de serlas, estaríamos cayendo en un cierto tipo de discriminación, en lo que se ha llamado el _chauvinismo del carbono_: como los seres humanos somos organismos biológicos hechos con química orgánica o del carbono y, de momento, solo podemos decir con rigor que los seres humanos tenemos consciencia, deducimos erróneamente que solo los organismos biológicos podemos tener consciencia. Evidentemente, eso no se sostiene. Antes los pájaros eran los únicos seres que podían volar y también eran organismos hechos de química carbónica, mientras que ahora tenemos aviones hechos de la más ruda química inorgánica que vuelan mucho mejor y más rápido.
Otro famoso argumento que Franklin trae a colación es el del _ingrediente mágico_. Y es que si negamos que la consciencia puede replicarse en una máquina porque las máquinas no pueden replicar ciertos de sus aspectos… ¿qué es lo que tiene la consciencia de especial para no poder replicarse? Desde el materialismo naturalista de la ciencia, cualquier _ingrediente extra_ que se tuviese que añadir a una computadora para hacerla consciente, y que se saliera de lo estrictamente permitido por las leyes de la física, sería un _añadido sobrenatural_ inaceptable. La consciencia debería ser un proceso natural tal y como lo es la digestión o la fotosíntesis, y como tal, debería ser replicable en su totalidad utilizando medios materiales.
Franklin se acerca a la posición de uno de los filósofos de la mente más famosos del momento, el australiano David Chalmers, quien sostiene que la consciencia es algo muy parecido a una magnitud física fundamental como la masa o la energía. Como tal, solo es indirectamente observable a través de sus efectos, por lo que deducir su estructura o sus cualidades intrínsecas únicamente a partir de ellos, se antoja una tarea muy difícil para los psicólogos, tanto más para los ingenieros observando máquinas: ¿cómo comprender los detalles del lenguaje de programación de una máquina solo contemplando su conducta?
Franklin parece resignarse a la imposibilidad de una solución profunda del problema, pero sugiere, citando al ingeniero de la Universidad de Sussex, Inman Harvey, que, "el ingrediente mágico" necesario para conseguir máquinas conscientes quizá solo sea un cambio en nuestra actitud como observadores. Quizá solo sea una cuestión de lo que estemos dispuestos a atribuir a nuestras máquinas. Franklin cuenta que muchos de los marineros que mantenían correspondencia regular por correo electrónico con IDA no tenían ningún reparo en afirmar que la máquina era consciente ¿En qué, verdaderamente, nos basamos nosotros para tender más razón que los marineros al negarlo?
En cualquier caso, Franklin apuesta por seguir trabajando en hacer máquinas cada vez más complejas, inteligentes y comunicativas pues, citando ahora a Hans Moravec, quizá cuando lo sean lo suficiente, todo el mundo asumirá sin más que son conscientes y, entonces, este tema no tendrá ya ninguna relevancia.
Fotos | iStock
Ver 9 comentarios
9 comentarios
pablo_
El artículo es muy interesante, vaya por delante. Pero se hacen muchas afirmaciones que no son ciertas con el fin de empujar al lector hacia una conclusión que, simple y llanamente, no puede darse.
Para empezar, la consciencia es el centro de la existencia, y es inexplicable porque, de lo contrario, ya habríamos explicado no solo nuestra existencia física, sino el motivo por el que percibimos dicha existencia. Y esto último no ha ocurrido aún.
Después se van intercalando falacias por aquí y por allá dichas por el creador de un compendio software al que le interesa muchísimo que se hable de su obra. La razón por la que sabemos que el resto de humanos son conscientes es porque intuimos que lo son. Pero es una intuición natural, algo con lo que naces desde el principio. No adquieres la sensación con el paso del tiempo, ni tiene que venir el progenitor a machacarte con que tus semejantes son tan conscientes como tú. Simplemente sabes que es así. Si viviéramos en una simulación perfecta, ¿seríamos capaces de llegar a percibir con total certeza que somos el único ser consciente de nuestra realidad? Ni idea pero, ¿qué sentido tiene utilizar este argumento? Es decir, en el momento en que postulas que vivimos en una simulación, ¿qué relevancia tiene nada? ¿Qué relevancia tiene que el tal Franklin haya dado con una máquina consciente si realmente no hay nada consciente más que mi propio yo?
La razón por la que nadie puede comprobar empíricamente que una máquina sea consciente es muy simple: ni siquiera podemos probar nuestra propia consciencia. Imaginar el comprobar la consciencia de lo que tiene pinta de ser un sistema experto muy avanzado es un sinsentido.
Entonces, ¿por qué tenemos la certeza de que las máquinas no son conscientes? Primero, porque sabemos toda la sucesión de fenómenos que las llevan a funcionar como lo hacen de manera determinista. Es decir, conocemos con precisión milimétrica todas las estructuras, físicas y lógicas, que hacen que una máquina se comporte como lo hace, porque durante su creación hemos llevado a cabo un proceso consciente sobre cómo debe comportarse y los mecanismos para que lo haga. Un hijo, en cambio, no precisa de programación alguna y no podemos determinar su forma de actuar de antemano ni explicar porqué actúa como lo hace, ni siquiera definir el marco de procesos/cálculos/pensamientos que efectúa para ello.
Y tampoco sienten, pese a que en el artículo se afirme que lo hacen en varias ocasiones. Esto es así porque no se generan fenómenos espontáneos que produzcan que las máquinas dejen de comportarse como lo hacen o que redefinan por completo sus objetivos. Es decir, sabemos que una máquina no siente frustración porque el fallar muchas veces en la búsqueda del objetivo no produce cambios no esquematizados en su conducta como suele ocurrir con las personas. Salvo que pensemos que la propia programación humana de estas conductas asociadas a ciertos sentimientos es equivalente a sentir, lo que no tiene ni pies ni cabeza, puesto que tampoco se da la voluntad de exteriorizar dichos sentimientos.
Pero es que ni siquiera podemos aseverar que una máquina sea plenamente inteligente. Ni siquiera pueden emular el comportamiento completo de un perro, ser considerado no autoconsciente, y ya estamos intentando saltar a justificar que un sistema experto es tan plenamente consciente como un humano porque su creador viene con esa cantinela.
El origen de toda esta confusión es muy simple: estamos intentado explicar por métodos empíricos algo que la ciencia no puede explicar de ninguna manera. Esto es así porque no es cuantificable. Si lo fuera, estaríamos a unos pocos pasos de ejecutar nuestra mente en un computador y alcanzar la inmortalidad, o de generar sistemas conscientes por sí mismos. Es decir, estaríamos literalmente a un paso de crear auténtica vida del silicio. Creo que es obvio que nada de todo esto está siquiera remotamente lejos de suceder. Probablemente llegará el momento en que nos tendremos que plantear seriamente si una máquina siente o no siente y si es o no consciente. Pero es obvio que ni ha llegado el día, ni sabemos qué requisitos tendrán que cumplir las máquinas para sembrar tal duda en tanto que aún no tenemos claro las variables que nos convierten en conscientes.
P.D.: el proceso evolutivo que ha dado lugar a la Humanidad no "gastó recursos en que tuviéramos una mente". El proceso evolutivo es una sucesión de fenómenos casuales que llevan a que se desarrolle lo que conocemos por evolución. Pero la aparición de nuevas características por mutación y su consolidación por selección natural no constituyen gastos de recursos de ningún tipo, ni tampoco se producen por un proceso razonado, como se insinúa, más que nada porque dichos recursos, simplemente no existen ni serían posesión de nadie en caso de que así fuera. Esta frase está mucho más cerca de teorías teocentristas que de la teoría de la evolución.
p2dzca
Es muy interesante el artículo y trata temas fascinantes.
Hubo una gran polémica sobre la supuesta victoria de AlphaZero frente a Stockfish. En el enfrentamiento se utilizó mucha más potencia de computación para AlphaZero que para Stockfish y el equipo de AlphaZero configuró Stockfish con unos parámetros que le desfavorecían. Además, Alphazero sólo publicó unas pocas partidas que le fueron favorables. No se sabe nada del resto.
Hay que decir que desde entonces hasta ahora se ha creado, partiendo de AlphaGo Zero y Leela Zero Go, un programa de ajedrez llamado Leela Chess Zero (uno de sus desarrolladores también lo es de Stockfish). Utiliza "reinforcement learning" y MCTS, al igual que AlphaZero. El programa es gratuito y se puede descargar ( https://lczero.org/ ). Hace unos días terminó la edición 17 de Top Chess Engine Championship. Leela Chess Zero ganó y Stockfish quedó en segundo puesto.
MuZero, al igual que AlphaZero, se ha aplicado a problemas con unas pocas reglas muy concretas. El mundo real no es así. Por eso, aunque MuZero supone un gran avance respecto a AlphaZero y para el desarrollo de la inteligencia artificial, está muy limitado. Una forma de verlo es que Alphabet (Google) es dueña de una empresa llamada Waymo que se dedica a la conducción autónoma de vehículos y que utiliza otras técnicas de inteligencia artificial distintas a las de MuZero (excepto "reinforcement learning").
A veces se equipara la consciencia y la inteligencia y están relacionadas, pero son lo mismo. Como dice el artículo, quizá habría que definir en primer lugar qué es consciencia. Muchos animales son conscientes y conscientes de sí mismos (pasan el test del espejo). Sin embargo, su grado de inteligencia varía muchísimo entre ellos y con nosotros.
Ya que se nombra a Moravec, cabe destacar su famosa paradoja ( https://es.wikipedia.org/wiki/Paradoja_de_Moravec ) que incide de lleno en la diferencia que existe entre jugar al ajedrez y otras tareas que requieren inteligencia y que la inteligencia artificial está lejos de lograr.
morquar
Genial artículo Santiago! Gracias!
alejoar14
Al final pasará con la consciencia lo mismo que pasó con el ojo humano a principios del siglo XIX. En aquella época la gente creía que las funciones del ojo eran algo divino, algo que iba a ser muy difícil de replicar por no decir que imposible, y en sólo unos cuantos años se demostró lo contrario con la invención de la cámara fotográfica. Sí es verdad que replicar un cerebro humano en su totalidad sigue siendo algo increíblemente difícil de hacer, pero cada vez los científicos se están dando cuenta de que la consciencia ya no es tanto aquella cosa mágica y especial que no se puede tocar. Es sólo cuestión de tiempo
yerhpmuh
Consciencia y máquina en la misma frase...
juanduran
Muy buen artículo, parece como si Xataka hubiera regresado a sus inicios. En mi opinión estamos muy lejos de conseguir una maquina con conciencia, pues el poder computo que se requeriría no lo conseguiriamos ni con una computadora cuántica. Vale pensar en el caso de Alpha Zero, un buen ejemplar de la inteligencia artificial, sin embargo no domina ni de cerca todo el entorno del ajedrez, porque para dominar por completo un entorno "controlable" como lo es el ajedrez, necesitaría algo mayor que una computadora cuántica, ya que el número de partidas posibles es de un 10 seguido de 100.000 ceros. Ahora, la realidad en la que se mueve nuestra conciencia seguramente tiene miles de veces más variables que un juego simple de ajedrez. Por eso mi opinión es que en estos momentos es imposible crear un software que piense por sí solo y tenga una conciencia, y ni siquiera lo lograríamos con una computadora cuántica. Hace falta algo mucho más potente, y seguramente el día en que podamos crearlo tendríamos que replantearnos muchas cosas...
lbiohazardl
Yo solo hare esta pregunta para cualquiera que quiera meterse en el campo de la autoconciencia artificial
Estas preguntas la han tratado de responder los últimos 2000 años los filósofos .... ¿Puedes probar científicamente (Usando el método científico) que eres consciente de ti mismo?
¿Puedes probar científicamente que la conciencia de ti mismo no es un reflejo de la conciencia de los demás? (es decir que no es propia si no asignada por la sociedad)