La inteligencia artificial de Google, Proyecto Deep Mind

Cuando hablamos de inteligencia artificial ( I.A.), se nos vienen a la mente muchas de sus posibilidades, pero también, surgen muchos interrogantes al respecto. Como comúnmente se ve en los films de Ciencia Ficción, a menudo nos traen  producciones, que a modo de advertencia, nos generan y transmiten situaciones que no sabríamos como manejar en la actualidad, o por lo menos, nos abren los ojos a las posibles situaciones de lo que podría suceder, si estas tecnologías, supuestamente inteligentes o con mas capacidad de calculo y toma de decisiones, se salieran de control. Entonces, correríamos gran peligro si no lográramos tener el control bajo nuestra potestad?

googleskynet3

El hecho es que, en realidad , no se hace hincapié en lo básico, en que sus decisiones  son meros cálculos y probabilidades estadísticas en base a procedimientos.  ¿Acaso Estamos ante el nacimiento de proyectos homónimos a la conocida SkyNet que cierta conocida franquicia de cine nos hace recordar?.

 

Google y su Proyecto DeepMind ( ya piensa en cómo desactivarla, por si acaso)

inteligencia-artificial-ciencia-y-mas-t01-02-image02
Mucho se ha comentado acerca de la inteligencia artificial y sus posibilidades, personalidades involucradas en el sector se ha pronunciado a favor y en contra como el caso de Bill Gates, Mark Zuckerberg, Stephen Hawking, Elon Musk, entre otros, ya que al día de hoy son muchos los desarrollos que buscan implementar sistemas de inteligencia artificial y machine learning.

Uno de los proyectos más ambiciosos es el caso de DeepMind, un sistema avanzado de IA adquirido por Google en 2014 por 580 millones de dólares donde actualmente intervienen científicos de la Universidad de Oxford, quienes ahora no sólo trabajan en su desarrollo, sino que también están creando un mecanismo que nos asegure que podremos desactivarla en casos de algún peligro potencial.

 

Asegurando el futuro de la raza humana

El día de hoy, científicos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford e investigadores de Google están publicando un documento que lleva por nombre Safely Interruptible Agents, donde describen una serie normas y funciones con el objetivo de evitar que DeepMind pueda tomar el control de su sistema, e incluso sea capaz de desactivar los protocolos para que los seres humanos retomen el control.

Esto tal vez puede sonar alarmante, pero la realidad es que es una especie de póliza de seguridad que nos garantizará el óptimo funcionamiento de estos sistemas, lo cual está dirigido principalmente a casos y aplicaciones en cadenas de producción donde se pueden presentar fallos sin la supervisión de un ser humano, entonces con esta especie de “gran botón rojo de emergencia” podríamos desactivar las acciones y volver a reprogramar.

inteligencia-artificial-ciencia-y-mas-t01-02-image04

Un punto importante, es que estas medidas también hablan de un mecanismo que garantiza que la IA no aprenderá a desactivar o interrumpir estos protocolos, es decir, que no pueda bloquear el control por medio de humanos, algo que sería potencialmente peligroso ya que prácticamente sería independiente y sin posibilidad de que podamos desactivarla o volver a tomar el control.

Hasta este momento han logrado desarrollar ‘Q-learning’ y ‘Sarsa’, dos algoritmos de seguridad que son imposibles de modificar por la propia IA, ya que según los investigadores, muchos desarrollos no están creando este tipo de módulos de seguridad, algo que debería ser prioritario en el desarrollo de inteligencia artificial.

inteligencia-artificial-ciencia-y-mas-t01-02-image03

DeepMind tiene un objetivo muy ambicioso que es “tratar de resolver la inteligencia”, por ello la importancia de que siempre trabaje bajo nuestra supervisión, ya que se estima que en al menos 100 años, los sistemas de IA podrían ser más astutos que los seres humanos y ser una amenaza para nuestra existencia.

 

Aclarando ideas

Como sabemos, la inteligencia no viene del cerebro, si no de la capacidad que tiene este y  nuestro decodificador de captar nuestro espíritu.

inteligencia-artificial-ciencia-y-mas-t01-02-image01

Entonces, cualquier sistema de IA, si bien tienen una tremenda capacidad de razonamiento, carecen de algo fundamental, de sentimientos y emoción y no tendrán nunca las capacidades de decisión y discernimiento  que posee cualquier ser con capacidad analítica (ser humano u otros).  Hemos sabido de mundos que han sucumbido a raíz de esta clase de tecnologías mal manejadas, que terminan volviéndose en nuestra contra .

Si bien lleva años poder concretar un sistema funcional, que este a nuestro servicio para nuestros fines, que nos ayude en las tareas que serían de alto riesgo o incluso, asistirnos en procedimientos de extrema delicadeza y precisión, como serían una cirugía o tratamientos médicos delicados.

inteligencia-artificial-ciencia-y-mas-t01-02-image00

Si queremos llegar a lograr una I.A. que realmente piense, estaríamos hablando de un cerebro artificial que logre decodificar un espíritu, o sea, con la capacidad de decodificar conceptos espirituales. Pero entonces, ya no estaríamos hablando de “Inteligencia Artificial”, sino que tendríamos un nuevo concepto, según mi opinión, que podríamos denominarla:  “Decodificación Conceptual Artificial”.

inteligencia-artificial-ciencia-y-mas-t01-02-image05

La inteligencia artificial aún está muy lejos de superar a la humana y el futuro hay que apuntalarlo hacia los resultados de la cooperación hombre-máquina y su entorno.

 

Hasta la Proxima,

David (10% Nori-El)
foto-perfil-300


Fuente: Xataka.com

Películas Sugeridas: Matrix , Terminator, Ex Machina , Blade Runner, Juegos de Guerra , Yo, Robot



Compartir