Demasiada Inteligencia Artificial o poca inteligencia humana, ¿Cuál es el peligro real?
Héctor Goldin Fundador de maximstore, Apple Premium Reseller y Apple Authorized Service Provider
Héctor Goldin Fundador de maximstore, Apple Premium Reseller y Apple Authorized Service Provider
El mundo está asistiendo a una importante novedad tecnológica que trae estímulos y miedos, la Inteligencia Artificial o IA. La IA, cómo muchas nuevas tecnologías no es algo estático que apreció súbitamente, sino un conjunto de tecnologías de hardware y software que van evolucionando y que en los últimos meses han llamado mucho la atención del público a partir de la aparición de ChatGPT. Indudablemente ha sido un paso importante en la dirección del famoso “test de Turing”, la prueba que estableció a mediados del siglo XX uno de los genios fundacionales de la computación, Alan Turing, y que establece que la forma de distinguir si una computadora es realmente inteligente es hacer un chat entre un humano y el dispositivo, y que el humano no pueda distinguir si estamos conversando con una máquina o con un ser humano.
Obviamente esta definición tiene muchas ambigüedades, por dar un ejemplo sería cómo la forma de detectar si un mago está haciendo magia real o un truco, la mayoría de los no profesionales no podrán descubrir cómo es el truco de un mago profesional. En forma similar ese desafío de chateo, que imaginaba Turing, no es lo mismo con cualquier humano que interactúe, es necesario un nivel de conocimiento técnico y sobre todo escepticismo que es poco común.
Pero vayamos a destacar lo más importante y lo que es la causa de una gran confusión: los seres humanos no estamos preparados para interactuar con algo que maneja un nivel de lenguaje muy avanzado, pero que no tiene detrás ningún tipo de emoción.
Por más que haya llegado a la cultura popular el concepto de “lado derecho e izquierdo del cerebro” para distinguir la “mente racional” de la “mente emocional”, los seres humanos no somos divisibles, no podemos apagar la emocionalidad o la racionalidad por sí solas. Y para peor, estos modelos de lenguaje de IA parecen tener importantes emociones que percibe el ser humano que chatea, y que surgen de la metodología de análisis del lenguaje y síntesis de respuestas y que parecen asombrosas. Otro cruce importante que les ocurre a los humanos al chatear es la enorme influencia que ha tenido la ficción, tan antigua como la civilización, en la que han aparecido numerosas historias de seres artificiales o animales que son inteligentes, hablan y o hacen cosas que invariablemente destruyen a su creador y castigan la ambición de alcanzar un conocimiento prohibido. Los ejemplos de los mitos de Eva y la serpiente, el Golem, La estatua de Pigmalión, y por supuesto la más famosa creación de todas, el monstruo de Frankenstein, que ha sido fundacional en la producción literaria y audiovisual del terror y algún tipo de ciencia ficción.
Un enemigo acérrimo de esta tendencia fue uno de los más grandes escritores de ciencia ficción, Isaac Asimov, que inclusive le puso nombre a este “Complejo de Frankenstein” y dedicó una enorme parte de sus centenares de obras a mostrar que los robots serían una gran ayuda para la humanidad y no su destrucción. Pero la penetración cultural el Complejo de Frankenstein ha sido mucho más fuerte, inclusive las películas que se han hecho supuestamente basadas en las novelas de Asimov terminan siempre adhiriendo a la obligación del guion de que los robots son malos y se rebelan, se ve que en Hollywood no se concibe el éxito de una película si ocurre lo contrario, como era en las novelas originales de Asimov.
Volvamos a 2023, y nos encontramos a decenas de miles de humanos chateando con algo que manifiesta claramente que es una aplicación de IA, pero que parece tener bastante inteligencia en las respuestas, inclusive como tiene muchos errores, y la gente presupone equivocadamente que las computadoras son infalibles, los errores dan todavía mayor impresión de inteligencia humana. Y eso produce miedo, azuzado por la amplitud cultural de la influencia del Complejo de Frankenstein en nuestra sociedad moderna. Vamos a la pregunta que todos hacen en la actualidad: ¿La IA puede ser un peligro para la humanidad?
La primera respuesta es que sí, obviamente, igual que muchas otras tecnologías que desarrolló la humanidad, la fragua de metales, la pólvora, la energía nuclear, la biotecnología, la tecnología aérea y espacial, etc. etc. Refinemos la pregunta: ¿Si la IA puede mejorar su inteligencia 10, 100 o 1000 veces, o ser un millón de veces más inteligente que el ser humano, puede autogenerarse sola en un peligro para la humanidad? (El principal ejemplo en la ficción es Skynet, la red de computadoras de la serie Terminator que domina el mundo y conquista a los humanos).
La pregunta es ¿para qué? La IA no tiene emociones, por lo que no tiene deseos, ni ambiciones, no necesita dinero, ni poder, ni mujeres ni hombres ni otras computadoras para sus deseos sexuales, ni ansias de dominar, ni megalomanía ni esquizofrenia ni psicopatía. Una IA súper inteligente que trabajara en forma autogenerada probablemente intentaría lo mismo que la mayoría de la gente inteligente intenta hoy con muy poco éxito, tratar de ayudarnos a cuidar el planeta en el que vivimos y cuya destrucción ecológica nos perjudicaría terriblemente. Pero desde ya, no podemos dejar de tener en cuenta que mucho antes que una IA autogenerada llegue a ese punto, habrá seres humanos que quieran usar la IA como un arma para atacar y dominar a otros seres humanos, que es lo mismo que ha hecho nuestra especie en los últimos cientos de miles de años, empezando con los famosos garrotes de madera hasta las ojivas nucleares actuales.
La conclusión entonces: ¿Debemos prohibir la IA? ¿Pensamos que con eso vamos a impedir que los humanos que quieran dominar el mundo usen estas u otras herramientas? O es mejor que usemos la IA para comprender mejor el mundo, avanzar en la ciencia, encontrar curas para enfermedades, mejores y más limpias formas de obtener energía, ayudarnos a entender cómo ponernos de acuerdo en la democracia para mejorar la calidad de vida de todos, entender cómo resolver los conflictos entre nosotros, etc.
Una gran ayuda que nos puede dar la IA es la de proyectarnos al futuro las consecuencias de lo que hacemos hoy. Si lo pensamos un poco, ésta es la gran diferencia entre la inteligencia humana y la de los animales: poder proyectar al futuro la consecuencia de nuestras acciones de hoy. Los humanos entendimos en algún momento de la prehistoria que tener relaciones sexuales producía un embarazo y luego un nacimiento en el que las características de los padres eran muchas veces visibles y esto llevó al concepto de familias y de clanes, los primeros tipos de sociedades humanas. Otro tema que entendimos en los albores de la civilización fue que plantando una semilla al cabo de un tiempo crecía una planta, lo que produjo una revolución económica frente a la poco certera tarea de recoger vegetales arbitrarios en las primeras sociedades. ¿Cómo puede la IA ayudarnos a proyectar lo que ocurre en el mundo?
Existe una enorme diferencia entre la inteligencia individual y la inteligencia colectiva. La inteligencia individual nos ha llevado a inventar productos y servicios maravillosos, obras de arte bellísimas, a niveles de producción de alimentos capaces de alimentar a toda la humanidad y a todos los animales que nos acompañan, entre otros importantes logros. La poca inteligencia colectiva en cambio nos ha llevado a destruir y contaminar el planeta, permitir que los representantes elegidos para gobernar actúen en bien propio en lugar del bien común, dejarnos influir por campañas dedicadas a controlar lo que pensamos y lo que decidimos, a despreciar el valor del conocimiento y del método científico y reemplazarlo por teorías esotéricas sobre el funcionamiento del mundo, a desvalorizar la capacitación, el profesionalismo, el esfuerzo y sobre todo a cambiar la perspectiva de largo plazo de las sociedades modernas.
Se ha producido en los últimos años una especie de regresión a las sociedades primitivas que no podían medir las consecuencias de lo que hacían, sólo que ahora sabemos que hay consecuencias, pero no actuamos sobre las causas, en muchos casos influidos por mitos y creencias fantasiosas. Hay una demostración incuestionable del asombroso avance de la reducción en la inteligencia colectiva humana que nos alcanza hoy a todo el mundo: La teoría conspirativa sobre la vacunación que se difundió con la última pandemia del COVID-19. La vacunación fue el descubrimiento genial del inglés Edward Jenner, que investigó científicamente las causas por las que las mujeres ordeñadoras tenían una importante protección contra la viruela, la enfermedad que había causado estragos en la civilización, por muertes y deformaciones horribles en los sobrevivientes. Las ordeñadoras se contagiaban de una enfermedad de las vacas que era una forma muy suave, pero con un virus tan similar que cuando la persona quedaba expuesta a la viruela ya contaba con los anticuerpos necesarios.
Esto fue la fundación de la medicina preventiva a diferencia de la medicina curativa, y un triunfo mayúsculo de la inteligencia de largo plazo, y se logró el hito de hacer el esfuerzo de inocularnos todos para lograr la inmunidad de toda la humanidad. Pero en contraposición a esto surgieron teorías conspirativas sobre que el COVID 19 o sus vacunas eran mecanismos de dominación “mágica” que iban a lograr terribles propósitos que nunca se materializaron. Pero sí se materializó una cantidad importante de gente que en contra de sus propios intereses y muy en contra de la sociedad humana se rehusaban a vacunarse.
El filántropo Bill Gates ya había identificado hace muchos años el peligro que representaba una pandemia, y en este caso del COVID 19 fue una estimación de muerte de cerca de 15 millones de personas, una cantidad enorme pero que en perspectiva podría haber sido muchísimo mayor. Si aparece por ejemplo un nuevo virus que tenga mayor tiempo de incubación y luego mayor letalidad, podría haber sucumbido una parte significativa de la población mundial. No hay dudas de que una IA súper inteligente podría por ejemplo ayudarnos a desarrollar vacunas nuevas en tiempo récord; pero si se genera una ilusión colectiva que nos lleva a creer que la IA "maligna" crearía una vacuna con pequeños robots que nos esclavizarían, y esto nuevamente podría evitar que mucha gente se vacune y causar muchísimo más daño que en este caso.
¿Cómo podría la IA ayudarnos a mejorar nuestra inteligencia colectiva? En estos últimos meses millones de individuos hemos descubierto la IA utilizada como Chat individual, y con poco esfuerzo técnico se podría comenzar a usarla como Chat Grupal, con la ventaja de poder compartir las ideas individuales para que se analicen en forma grupal, que la IA nos ayude a funcionar como moderador para evitar posiciones individuales agresivas o extremistas, ayudar a cuantificar velozmente las opiniones en uno u otro sentido del resto de los usuarios, fomentar que los participantes expresen sus ideas en diferentes tiempos y lenguajes y hacer recomendaciones sobre la implementación de las conclusiones.
Espero que alguna de estas ideas pueda ayudar a que cada uno de nosotros tome la decisión correcta entre la necesidad de limitar la Inteligencia Artificial o en cambio aprovecharla para mejorar la inteligencia colectiva Humana. Esa es la cuestión.
*La columna fue escrita por Héctor Goldin, Fundador de maximstore, Apple Premium Reseller y Apple Authorized Service Provider