Por Alberto Ray – AlbertoRay.com
Recientemente terminĂ© de leer el libro The Coming Wave escrito por Mustafa Suleyman, investigador británico fundador de DeepMind, empresa dedicada al desarrollo de la Inteligencia Artificial, y que posteriormente fue adquirida por Google. Se trata de un ensayo muy interesante sobre el futuro de la IA y la ingenierĂa para la modificaciĂłn genĂ©tica y sus impactos sobre el futuro de la humanidad.
Su planteamiento es muy claro: estamos frente a una nueva revoluciĂłn tecnolĂłgica de alcance global que va a cambiar la vida; el efecto de ese cambio puede ser luminoso o terriblemente oscuro y destructivo, y va a depender principalmente que los lĂderes en todos los ámbitos de nuestras sociedades tengan la capacidad (y la voluntad) de contener estas nuevas y poderosas fuerzas.
En mi libro Riesgos LĂquidos, publicado en 2022, definĂ a la IA y a la modificaciĂłn genĂ©tica como potenciales riesgos de naturaleza lĂquida, surgidos de la complejidad y el aceleracionismo tecnolĂłgico, y me referĂ a que, debido a la incomprensiĂłn que la vastĂsima mayorĂa de los habitantes del planeta tienen sobre estos potenciadores del poder, las probabilidades de mitigar los peligros derivados de ellos son realmente bajas, y lo que nos corresponde como especie es construir una gran consciencia del riesgo de lo que pueden significar estas herramientas convertidas en armas en contra de nosotros mismos.
Al leer el libro de Suleyman, sin embargo, me surgiĂł una cierta sensaciĂłn de optimismo, pues si bien, nuestras capacidades para detener el desarrollo de estas tecnologĂas ya ni se cuestiona, existe la posibilidad de contener y conducir la expansiĂłn en la direcciĂłn adecuada. En este sentido me vino a la mente el desarrollo de la energĂa nuclear, y cĂłmo desde 1945 hemos venido lidiando con dificultad su uso con fines pacĂficos, pero hasta hoy hemos logrado sobrevivir a la opciĂłn de autodestruirnos. Vale resaltar, que tanto la IA, como el desarrollo de tecnologĂa para la modificaciĂłn del ADN son cada vez más accesibles y las probabilidades que se extiendan a fines no Ă©ticos son mucho mayores que las armas atĂłmicas, lo que genera que estos riesgos puedan propagarse con facilidad, lo que va a requerir un abordaje responsable.
La pregunta que surge entonces es: ÂżCĂłmo nos garantizamos esa capacidad de contenciĂłn?
En mi libro, la respuesta tiene varios planos y va desde la consciencia del individuo en torno al riesgo, hasta la creaciĂłn de organizaciones altamente confiables y preparadas para operar y tener Ă©xito en medio de la complejidad y la adversidad. Pero como mi visiĂłn sobre los riesgos lĂquidos sigue siendo un proyecto en construcciĂłn, aun no tengo propuestas de acciĂłn inmediata, como tampoco las tiene Mustafá Suleyman, más allá de la conciencia y contenciĂłn.
Recientemente he tenido la idea que los riesgos lĂquidos derivados de la IA conseguirán un contrapeso igualmente en la IA. Es decir, los desarrollos hechos con propĂłsitos malignos deberĂan poderse manejar con herramientas de contenciĂłn y conducciĂłn que, al ser incorporadas en el mainstream de la tecnologĂa servirán como protecciĂłn frente a actores con intenciones dañinas. Sin embargo, este esquema de colocar riendas a los riesgos no va funcionar igual que en el caso de la carrera armamentista nuclear. En su momento, la estrategia de contenciĂłn atĂłmica tenĂa como objetivo principal la disuasiĂłn para evitar la destrucciĂłn mutua, lo que generaba un equilibrio “pasivo” y medianamente estable que podĂa suponer un futuro predecible.
Con la IA el juego se plantea distinto; aquĂ se tratará de acelerar el desarrollo para estar al menos un paso por delante de la amenaza, o viceversa, la amenaza por delante de la contenciĂłn. En esta oportunidad el equilibrio será mucho más activo e inestable, lo que para nada asegurará un futuro predecible, y por ende, la brecha de incertidumbre puede mantenerse abierta indefinidamente, manteniendo el riesgo siempre presente. En la ingenierĂa genĂ©tica pudiera ocurrir algo similar, aunque de consecuencias distintas, debido al poder destructivo que se puede alcanzar a travĂ©s del desarrollo de virus y otras enfermedades de rápida propagaciĂłn y letalidad que serĂan de difĂcil contenciĂłn. De hecho, y más allá de las consideraciones sobre si el COVID19 fue una creaciĂłn de laboratorio o surgiĂł espontáneamente, la herramienta de contenciĂłn que fue la vacuna tardĂł meses en estar disponible, y aĂşn hoy se cuestionan sus efectos adversos y su eficacia.
De acuerdo con Suleyman es muy posible que la IA alcance en relativamente corto plazo la autoconciencia. AquĂ estamos hablando de una entidad inteligente distinta (y superior) al humano, con capacidad de autopercibirse como un ser independiente, lo que nos llevarĂa a reconocer su real existencia en la lĂłgica cartesiana del “cogito ergo sum”. Una vez más estarĂamos frente un riesgo construido muy lĂquido enteramente por nosotros, al igual que la bomba nuclear, pero en esta ocasiĂłn, sin posibilidad alguna de contenciĂłn; ya que la IA dispondrĂa de su propio “libre albedrĂo” para protegerse de cualquier intento de ser conducida por una inteligencia inferior. QuedarĂamos entonces a merced de que los algoritmos autocodificados sean “buenos” en su propia naturaleza y no decidan en algĂşn punto de “hiperracionalidad” llegar a la conclusiĂłn que la raza humana representa una amenaza a su propia existencia.
En fin, esta nueva ola que se nos viene (The coming Wave) trae consigo un desafĂo de seguridad para la humanidad con el que hasta ahora no nos habĂamos confrontado, estamos creando una fuerza tecnolĂłgica de tal magnitud y potencia que puede transformarnos en una especie luminosa y de posibilidades infinitas de cara al futuro, o sumergirnos en la apocalĂptica distopĂa del fin de los tiempos con un futuro que no nos pertenece. Justo allĂ estamos.