El origen de Skynet?

enero 22nd, 2014

En un futuro no muy lejano, hablo de menos de 30 años, la Inteligencia Artificial, A.I., será más rápida y más inteligente que los seres humanos. En este momento ya no dominaremos las máquinas. ¿Qué va a pasar con la humanidad? ¿Qué papel jugaremos en una sociedad en la que las máquinas son más inteligentes que nosotros?

Técnicos e investigadores del Instituto de Investigaciones en la Inteligencia de las Máquinas (MIRI), no dudan que las máquinas serán más inteligentes que los humanos. También proponen remedios para evitar que esa inteligencia no se convierta en belicosa. Nick Bostrom, del Instituto de la Humanidad, es uno de los que insiste en la necesidad de desarrolla un A.I., amigable, ya que puede aparecer una inteligencia hostil o, tan superior a nosotros, que le seamos indiferente.

Tenemos que considerar el hecho que una máquina ultra-inteligente podrá llegar a replicarse en otras máquinas mejores que ella. Esto originaría la aparición de millones de máquinas, cada vez más inteligentes, que irán dejando muy atrás la inteligencia humana. Sería, sin duda, lo último que fabricaríamos.

Sepamos que la inteligencia es un producto de algoritmos cognitivos. El tema candente de la I.A. aparece, recientemente, en la película Su (aún no proyectada en España), cuyo contenido  ha sido tema de debate entre los informáticos.

¿Qué va a pasar en los días posteriores a la creación de la primera máquina de I.A.? ¿Cómo se va a controlar algo que es más inteligente que nosotros? Esa máquina, mucho más rápida que nosotros, pude hacerse con el control del planeta en segundos. Es más, una máquina de I.A. se dará inmediatamente cuenta que está más preparada que nosotros y puede bloquear cualquier método  de desconexión. No estaríamos frente a HAL de 2001 Una Odisea del Espacio. No disponemos de un lugar dónde refugiarnos ni una cámara para desactivar su memoria. Nuestra máquina inteligente está irremediablemente conectada y en condiciones de replicarse inmediatamente.

Una auténtica máquina más inteligente que nosotros posee la capacidad de auto-mejora. Y si es capaz de mejorarse a sí misma, está mejorando la inteligencia que la hace mejorarse, no está dejando en un nivel de inteligencia muy por detrás de ella.

Un artilugio así puede llegar a la conclusión, inteligente, que es un bien destruir la raza humana.  Tal vez estamos construyendo las máquinas que decidirán el destino del  planeta, nada nos asegura que una máquina más inteligente que nosotros tenga los mismo valores morales, éticos y principios que nosotros, y si los tiene puede llegar a conclusiones muy diferentes de las que hemos llegado los seres humanos.

El caso es que los dados ya están arrojados, que nuestro destino depende de las máquinas inteligentes que hoy estamos construyendo. Dejar de investigar en este campo es una estupidez, ni China, ni Corea del Norte, se van a detener. Una vez que una super-máquina inteligente sea creada, se apoderará del sistema, esté en China o en la Antártida.

Estamos ante un problema difícil de resolver,  personalmente no tengo una respuesta concreta, ya ha sido bastante inquietante el hecho de planteármelo. En cualquier caso, si el lector quiere saber algo más, tal vez encuentre respuestas en el libro Super-inteligencia: Caminos, Peligro, Estrategias. Es del filósofo Nick Bostrom, editorial Oxford University Press. Bostrom es el cofundado de la Asociación Transhumanista Mundial, y en la actualidad es director del Future of Humanity Institute de Oxford.

Kurzweil + Google = Más Singularidad

diciembre 18th, 2012

Raymond Kurzweil se ha asociado a Google para trabajar en proyectos referentes al aprendizaje automático y al procesamiento del lenguaje. Indudablemente todos conocemos a Google, una empresa que está a la vanguardia del desarrollo, pero posiblemente muchos desconocerán quién es Raymond Kurzweil y la Singularidad.

En mi penúltimo libro, La ciencia de lo imposible, dedicó parte de un capítulo a la era de la Singularidad, una fecha próxima en que las computadoras alcanzarán el nivel de la inteligencia humana y la sobrepasarán. La neurocirugía se unirá a la computación para implantar chips en nuestro cerebro, será la era de la interacción cerebro-ordenador.

La era de la Singularidad y la universidad del mismo nombre son dos ideas de Raymond Kurzweil, quién cree que, gracias a ciertos avances, se vencerá a la muerte. Pronosticó que los nanobots podrían reparar células enfermas o tumores, y ya lo están haciendo. Kurzweil ha anunciado que vivimos un crecimiento exponencial y, en diez años todos los ordenadores serán más potente que en la actualidad, en veinte años serán un millón de veces, luego se doblara su potencia cada año.

Raymond Kurzweil es un referente mundial en el campo de la tecnología y la I.A., fundador de la Universidad de la Singularidad en Silicon Valley, y ahora socio de la poderosa multinacional Google.

Kurzweil es un genio que ya creo hace años una máquina de lectura para ciegos, utilizada por Stevie Wonder; ha ganado varios premios en el MIT, y sus ideas y proyectos combinan genética, inteligencia artificial y nanotecnología. Ahora con el gigante Google a su lado tenemos una combinación explosiva de la ciencia del futuro.