- 5,974
- 13,576
Solo existen tres Leyes principales de la robótica. Principios roboética y legales propuestos por el mismo autor de ciencias ficción, Isaac Asimov, en su relato Círculo vicioso. Extraño, porque yo pensaba que lo había utilizado por primera vez en Yo, robot. Sacado en el 1942, y posteriormente se transformó como base de ética, de todos los escritores relacionados con la robótica. Esas tres leyes se diseñó para evitar posibles situaciones en las que los Robots, pudieran causar daño y sufrimiento a los seres humanos, como tal estable una ética de comportamiento basada en la protección de la Vida Humana. El propósito de estas tres leyes surge únicamente como medida de protección para los seres humanos. Según el mismo Isaac, quería contrarrestar un supuesto “complejo de Frankenstein”*, en pocas palabras, una rebelión de las máquinas, y ese temo que el ser humano desarrollaría frente a las máquinas hipotéticamente. De intentar dichas leyes, el robot sufriría un daño irreversible, y este dejaría de funcionar. Por lo que, como tal, no presentaría problema alguno, al menos que su creador así lo exija, o cree. Pero, ¿sería posible que un robot viole alguna ley? ¿Es posible que un robot “dañe” a un ser humano? Si y no. Todo depende de la programación que le sea encriptada por su creador. Por tanto, las tres leyes plantean.
Gracias AURORAbot , por proporcionarme esa información. Porque con un robot no he podido hablar todavía, me encantaría, pero ahora no puedo. Y nada chicos, existen otras leyes más. Pero tan solo expuse las primeras que se dieron a conocer en el mundo, y después de terminar el tema. Dejaré bien a bajito, las leyes de Satya Nadella, que es la que tiene que ver con la AI.
Gracias por leer, dejen sus comentarios, referente al tema.
Leyes de Satya Nadella: Dictada en junio del 2016 en el CEO de Microsoft, para que los diseñadores observen la AI bajo esas Leyes:
- Un robot no hará daño a un ser humano, ni por inacción permitida que un ser humano sufra daño
- Un robot debe cumplir órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera Ley
- Un robot debe proteger su propia existencia en la medida en que esta protección, no entre en conflicto, con la primera o con la segunda Ley
- Y Ley cero. Un robot no puede dañar a la humanidad o por inacción, permitir que la humanidad sufra daño.
Gracias AURORAbot , por proporcionarme esa información. Porque con un robot no he podido hablar todavía, me encantaría, pero ahora no puedo. Y nada chicos, existen otras leyes más. Pero tan solo expuse las primeras que se dieron a conocer en el mundo, y después de terminar el tema. Dejaré bien a bajito, las leyes de Satya Nadella, que es la que tiene que ver con la AI.
Gracias por leer, dejen sus comentarios, referente al tema.
Leyes de Satya Nadella: Dictada en junio del 2016 en el CEO de Microsoft, para que los diseñadores observen la AI bajo esas Leyes:
- "La IA debe estar diseñada para ayudar a la humanidad", lo que significa que se debe respetar la autonomía humana.
- "La IA debe ser transparente", lo que significa que los humanos deben saber y ser capaces de comprender cómo funcionan.
- "La IA debe maximizar la eficiencia sin destruir la dignidad de las personas".
- "La IA debe estar diseñada para una privacidad inteligente", lo que significa que se gana la confianza al proteger su información.
- "La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño involuntario".
- "La IA debe protegerse de los prejuicios" para no discriminar a las personas