Google IA
Foto: Deep mind. Es importante reconocer que la inteligencia artificial ocupará consideraciones éticas en sus diseños a medida que estas vayan evolucionando.  
Google ha creado una constitución robótica para sus nuevos modelos de procesamiento de lenguaje y así asegurar el nivel de repercusiones que puedan causar las decisiones tomadas por sus nuevas inteligencias.
Las declaraciones formuladas por Google funcionan como una especie de candado de seguridad para las tareas que involucran a humanos seres vivos y objetos potencialmente peligrosos para la vida, así lo describe el medio Deep Mind en una publicación de su blog presentando las tres reglas AutoRT, SARA-RT y RT-Trajectory.
Estas tres herramientas buscarán mejorar las interacciones de los robots o inteligencias artificiales dentro del mundo real.
La primera herramienta es AutoRT, es un sistema que combina un modelo de lenguaje visual VLM con un modelo de lenguaje LLM, con el fin de comprender de una mejor manera el entorno y adaptarse lugares desconocidos, así como decidir tareas adecuadas, es en este sistema en el cual se colocó la ‘Constitución robótica’.
Mientras que para las otras dos herramientas SARA-RT y RT-Trajectory, sus tareas serán más utilitarias, pues la primera herramienta se maneja como una arquitectura de redes neuronales para mejorar la precisión y velocidad de respuesta de los robots, mientras que la segunda se encarga de modelar espacios en dos dimensiones para que el androide puede realizar de mejor manera sus tareas reduciendo la complejidad al momento de trabajar con su entorno.
Las tres leyes de la robótica por Isaac Asimov
Tal parece que la humanidad se encuentra en la época donde es óptimo y necesario arrancar con ese tipo de propuestas constitucionales ante la creciente ola de inteligencias artificiales o robots que comienzan a realizar tareas de seres humanos.
Ante esto, Google tomo de inspiración del escritor y científico ruso Isaac Asimov, quien es mundialmente conocido por su obra ‘Yo, robot’ de 1950, donde se abordan implicaciones éticas y morales en la interacción entre humanos y robots, con estas historias, se comparten reflexiones acerca de lo que hoy en día conocemos como inteligencia artificial.
Dentro de su libro, Isaac Asimov comparte tres leyes de la robótica, las cuales se rigen en lo siguiente:
  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes están en oposición con la primera ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no esté en conflicto con la primera o segunda ley.

Cabe mencionar que, aun con estas leyes, es importante reconocer que la inteligencia artificial ocupará consideraciones éticas en sus diseños a medida que estas vayan evolucionando.

OD