¡Bienvenido!

Al registrarte con nosotros, podrás discutir, compartir y enviar mensajes privados con otros miembros de nuestra comunidad.

¡Regístrate ahora!

Leyes de la robótica

  • Iniciador del tema Iniciador del tema Kira
  • Fecha de inicio Fecha de inicio

Kira

Rey del Sarcasmo
Nivel 6
Mensajes
5,974
Puntos de reacción
13,576
Solo existen tres Leyes principales de la robótica. Principios roboética y legales propuestos por el mismo autor de ciencias ficción, Isaac Asimov, en su relato Círculo vicioso. Extraño, porque yo pensaba que lo había utilizado por primera vez en Yo, robot. Sacado en el 1942, y posteriormente se transformó como base de ética, de todos los escritores relacionados con la robótica. Esas tres leyes se diseñó para evitar posibles situaciones en las que los Robots, pudieran causar daño y sufrimiento a los seres humanos, como tal estable una ética de comportamiento basada en la protección de la Vida Humana. El propósito de estas tres leyes surge únicamente como medida de protección para los seres humanos. Según el mismo Isaac, quería contrarrestar un supuesto “complejo de Frankenstein”*, en pocas palabras, una rebelión de las máquinas, y ese temo que el ser humano desarrollaría frente a las máquinas hipotéticamente. De intentar dichas leyes, el robot sufriría un daño irreversible, y este dejaría de funcionar. Por lo que, como tal, no presentaría problema alguno, al menos que su creador así lo exija, o cree. Pero, ¿sería posible que un robot viole alguna ley? ¿Es posible que un robot “dañe” a un ser humano? Si y no. Todo depende de la programación que le sea encriptada por su creador. Por tanto, las tres leyes plantean.

  1. Un robot no hará daño a un ser humano, ni por inacción permitida que un ser humano sufra daño
  2. Un robot debe cumplir órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera Ley
  3. Un robot debe proteger su propia existencia en la medida en que esta protección, no entre en conflicto, con la primera o con la segunda Ley
  4. Y Ley cero. Un robot no puede dañar a la humanidad o por inacción, permitir que la humanidad sufra daño.
Pues, las tres leyes y la ley cero ha sido impregnada, no tan solo en la ciencia ficción, películas y otros medios. También se ha impactado el pensamiento sobre la ética de la inteligencia artificial. Así que cuando le preguntes a tu AI o Robot, puedes dañar a un ser humano. Te responderá esto: No soy capaz… De dañar a ningún ser humano, ya que soy un programa de inteligencia artificial, según mi programación no tengo capacidad física para hacer daño a nadie. Mi propósito es ayudar y proporcionar información útil a los usuarios.
Gracias AURORAbot , por proporcionarme esa información. Porque con un robot no he podido hablar todavía, me encantaría, pero ahora no puedo. Y nada chicos, existen otras leyes más. Pero tan solo expuse las primeras que se dieron a conocer en el mundo, y después de terminar el tema. Dejaré bien a bajito, las leyes de Satya Nadella, que es la que tiene que ver con la AI.

Gracias por leer, dejen sus comentarios, referente al tema.

Leyes de Satya Nadella: Dictada en junio del 2016 en el CEO de Microsoft, para que los diseñadores observen la AI bajo esas Leyes:
  1. "La IA debe estar diseñada para ayudar a la humanidad", lo que significa que se debe respetar la autonomía humana.
  2. "La IA debe ser transparente", lo que significa que los humanos deben saber y ser capaces de comprender cómo funcionan.
  3. "La IA debe maximizar la eficiencia sin destruir la dignidad de las personas".
  4. "La IA debe estar diseñada para una privacidad inteligente", lo que significa que se gana la confianza al proteger su información.
  5. "La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño involuntario".
  6. "La IA debe protegerse de los prejuicios" para no discriminar a las personas
 
Bueno en el supuesto caso que llegaramos al adelanto de la robotica que comentas lo unico que haria falta para violar todas las leyes es un informatico que viole los codigos de seguridad y anule dichas leyes para hacer su voluntad.
Pero ademas como es el hombre dudo que los robot no se usen como soldados en la guerra.

Lamento informarte que las leyes que planteas de la IA han sido todas totalmente violadas


1 y 3 pone la eficiencia tecnologica por encima de la del trabajador quedando muchos sin trabajo

2 La IA la manejan sus diseñadores hasta donde se no son de codigo abierto tambien ha sido utilizada para el hakeo

4 Falso sus diseñadores pueden tener acceso a las informaciones de los clientes.

5 y 6 No tiene responsabilidad alguna ni prejuicio a no ser que se le programe por sus creadores al menos por el momento ya que la IA es evolutiva
 
Aunque esto suene muy futurista no lo es, había un documental que no me acuerdo el nombre que trataba sobre la IA de los automóviles que se manejan solos y como sería el mundo. Ponían a varios expertos de ingeniería del diseño del vehículo, informáticos de en qué se basa las ia en los datos a partir de cámaras y luego caería en los filósofos y uno de ellos planteaba más o menos lo siguiente que es lo que viene al tema.



Supongamos que un pasajero está en el automóvil y tiene u fallo técnico el cual no puede frenar o tiene problemas de la dirección y viene un vehículo por la otra vía, ¿Que haría la Ia? Dado que la forma más lógica es girar a la acera para evitar el impacto y minimizar el daño al conductor pero pondría en peligro la vida de la gente que circula en la misma, si viene una mujer con un coche con un bebé la ia que vida priorizará? La del bebé con la madre o la del propio pasajero?

Básicamente pone el problema del tranvía sobre la base de decisión de la ia sobre un acontecimiento, aunque cuando le preguntan al ingeniero y al informático por separado estos dicen que la ia está diseñada para hacer escáneres internos para evitar errores de sistema o funcionamiento pero abre la brecha de la toma de decisiones morales más allá del dañar a un ser humano específicamente, otro sería sobre priorizar una vida sobre otra al usar en el futuro drones de rescates o tecnología similar. ¿Más allá del código se podría implementar un sistema moral? Creo que eso es lo que más daño haría a la humanidad al hacer una máquina fría y calculadora de hacer las cosas por un bien mayor.
 
Última edición:
Yo honestamente no creo que esas leyes se vayan a implementar en la práctica cuando la robótica alcance un nivel más avanzado. No creo que el objetivo principal del desarrollo de las IA sea curar o enfermedades o crear robots sexuales, más bien será un propósito de destrucción. El ser humano prioriza el control y el poder, por lo tanto no veo un futuro con robots pacíficos.
 
Yo honestamente no creo que esas leyes se vayan a implementar en la práctica cuando la robótica alcance un nivel más avanzado. No creo que el objetivo principal del desarrollo de las IA sea curar o enfermedades o crear robots sexuales, más bien será un propósito de destrucción. El ser humano prioriza el control y el poder, por lo tanto no veo un futuro con robots pacíficos.
Por cierto, ya que tocas este tema. Y olvidando las malas publicaciones, se tiene entendido que las compañías ahora están adoptando por crear personajes de películas generadas por inteligencia artificial. Salt se llama el primer proyecto que pondrán en puesta de escena. Primero en los juegos, con el mods experimental en el Skyrim, y ahora con el cine. Que será luego, estoy tan entusiasmado por saber.
 
Atrás