¡Bienvenido!

Al registrarte con nosotros, podrás discutir, compartir y enviar mensajes privados con otros miembros de nuestra comunidad.

¡Regístrate ahora!

Debate IA y programadores

Red Nova's iconRed Nova

Moderador
Mensajes
726
Puntos de reacción
1,921
Algunos programadores que se las dan de grandes como w1re's iconw1re afirman con total certeza que la IA no será capaz de reemplazar sus puestos de trabajo. Dicen que solo los noobs como AkaMe's iconAkaMe piensan que si puede. Yo me pregunto, bro es una máquina, a la IA no le hace falta ni escribir en lenguaje de alto nivel, va a ir directo con lenguaje ensamblador y ahí será más eficiente. Es probable que ya existan IAs no comerciales que puedan estudiar y comprender todo el código de un proyecto a gran escala con mucha más eficiencia y rapidez que cualquier humano. Expliquenme, por qué muchos developers les pica tanto este tema?
 
Ahora, hablando en serio, si hay un sector donde las IA nos van a destrozar es en la programación XD. Van a ser capaces de hacer aplicaciones completas y complejas en segundos XD.
 
Les voy a dar la misma respuesta que di en uno de los tantos debates en la uni.

Va a seguir haciendo falta gente capaz de darle instrucciones a la máquina sin contradicciones ni ambigüedades (a que no adivinas cómo se llama esto), cosa que no todo el mundo puede hacer. En este punto, la IA se vuelve un lenguaje de programación de alto nivel.
 
Yo me pregunto, bro es una máquina, a la IA no le hace falta ni escribir en lenguaje de alto nivel, va a ir directo con lenguaje ensamblador y ahí será más eficiente.
Me pregunto dónde he visto eso antes. Compilación.

Si crees que el lenguaje natural lo hace más accesible, estás cometiendo el mismo error que muchos otros a lo largo de la historia (ejemplo clásico: COBOL); la dificultad se encuentra en la lógica, no en la gramática.
 
Quieres decir que la IA no puede o no va a poder hacer uso de lógica o razonamiento? Mira al modelo o1 de ChatGPT, si eso no es razonar, está cerca.
Sigues sin entender. La máquina, por muy avanzada que sea, no va a pensar por ti ni va a entender lo quieres decir si no te explicas bien (vaya, lo mismo que puse más arriba), y si llegara a ocurrir, algo me dice que la industria del software sería la menor de tus preocupaciones.
 
Yo pienso abran muchos puestos donde no podrán reemplazar, cómo quiera sea son máquinas que no comprenden , ni piensan y mucho menos sienten, por muchos códigos le introduzcan jamás van superar el cerebro humano . No creo ninguno por muy sostificado sea , pueda reemplazar a los programadores. Qué máquina hoy en día por si sola se automejora, o se auto repara? 🤔
 
Dicen que solo los noobs como AkaMe's iconAkaMe's iconAkaMe piensan que si puede
Cuando dije eso?

Es probable que ya existan IAs no comerciales que puedan estudiar y comprender todo el código de un proyecto a gran escala con mucha más eficiencia y rapidez que cualquier humano.
También es probable que no.

La IA no te genera ningún proyecto entero. Te puede hacer algunas funciones y reza para que no tengan algún fallo, pero a la mínima que le pidas algo complejo se lía y empieza a hacer cosas sin sentido y que no funcionan del todo.

De todas formas, aunque te pueda generar un código que valga la pena, si no tienes conocimientos para implementarlo, no te va a servir de nada; te puede cambiar cosas que en su momento funcionaban y al pedirle otra cosa extra, modifica eso que ya funcionaba anteriormente.

La IA no piensa por si sola, no tiene consciencia y al final lo que hace es mezclar cosas como entienda que es correcto, pero eso no quiere decir que lo sean y a la mínima contradicción que le hagas, vas a tener la razón.

Por tanto, no, no va a reemplazar a ningún programador. Es solo una herramienta en la que te puedes apoyar para hacer cosas, pero si no tienes conocimientos sobre lo que esta haciendo, no vas a saber como usarlo.
 
Pero a ver, vamos a asumir de que las IA no alcancen el nivel como para desarrollar desde 0 por si mismas y que aún se siga necesitando programadores. La cuestión es que lo que antes hacían 20 programadores, ahora lo harán 3, porque la IA se encargará de gran parte del trabajo. Por lo que al final, si habrían pérdidas de puestos de trabajo de cualquier forma.
 
La IA no te genera ningún proyecto entero. Te puede hacer algunas funciones y reza para que no tengan algún fallo, pero a la mínima que le pidas algo complejo se lía y empieza a hacer cosas sin sentido y que no funcionan del todo.
Hablaba de un futuro we... espera sentada 5 añitos.
al final lo que hace es mezclar cosas como entienda que es correcto, pero eso no quiere decir que lo sean y a la mínima contradicción que le hagas, vas a tener la razón.
Cómo mismo hacen muchos programadores, van a stack overflow y empiezan a copiar como entienden, implementan el código según sus conocimientos, con buenas o malas prácticas. Al final de cuentas la IA está aprendiendo de código escrito por humanos.
La IA no piensa por si sola, no tiene consciencia
Qué vas a saber de eso wey, ni tu, ni yo entendemos como funciona un algoritmo de aprendizaje profundo con redes neuronales.
 
Mejor ponte a estudiar este campo como se debe en lugar de zamparte cuanto video publiquen los conspiranoicos.
O sea, yo busco videos con bases bro, el colega que puse del video trabajó en Google por varios años bro y tiene vastos conocimientos sobre deep learning bro, ni el sabe dar respuesta a algunas cosas sobre el tema... bro.
 
Le hice la siguiente pregunta a Chat GPT:
Habría alguna posibilidad de que en el futuro las ia tuvieran conciencia utilizando redes neuronales?

Y esta fue la respuesta:

La posibilidad de que las IA desarrollen conciencia utilizando redes neuronales es un tema ampliamente debatido en filosofía, neurociencia e inteligencia artificial. Sin embargo, en el estado actual de la tecnología y el conocimiento, hay algunos puntos clave a considerar:


1.​


Las redes neuronales artificiales están inspiradas en las estructuras neuronales del cerebro humano, pero su funcionamiento es fundamentalmente diferente. Mientras que el cerebro humano procesa información de manera integrada y adaptativa, las redes neuronales artificiales son sistemas matemáticos que optimizan funciones específicas. No hay evidencia de que estas estructuras puedan generar subjetividad, emociones o auto-conciencia, al menos en su forma actual.


2.​


La conciencia implica subjetividad, la capacidad de tener experiencias internas ("qualia") y una comprensión de uno mismo en relación con el entorno. Aunque no entendemos completamente cómo surge la conciencia en los humanos, parece depender de procesos biológicos complejos y emergentes, más allá de simplemente procesar datos como lo hace una red neuronal.


3.​


Algunas teorías sugieren que con suficiente complejidad y arquitectura adecuada, una IA podría exhibir comportamientos similares a los de la conciencia. Sin embargo:


  • Optimistas: Algunos investigadores creen que, con avances en redes neuronales, podría ser posible recrear aspectos funcionales de la conciencia.
  • Escépticos: Otros argumentan que la conciencia requiere más que simulación; puede depender de propiedades físicas o químicas específicas del cerebro que no se replican en el silicio.

4.​


  • Procesamiento limitado: Las redes neuronales actuales no tienen autoconciencia, intenciones ni deseos; simplemente procesan datos y generan salidas según su entrenamiento.
  • Falta de motivación intrínseca: La IA no tiene objetivos propios ni sentido de existencia, lo que parece ser un componente crucial de la conciencia.

5.​


En el futuro, podrían surgir arquitecturas más avanzadas que combinen redes neuronales con otros enfoques, como:


  • Modelos híbridos que simulen estructuras biológicas complejas.
  • Tecnologías que aprovechen la computación cuántica o nuevos paradigmas para replicar mejor los procesos neuronales humanos.

Sin embargo, incluso si logramos simular algo similar a la conciencia, quedará la pregunta filosófica: ¿es real o simplemente una ilusión convincente?


Conclusión​


La conciencia en IA, utilizando redes neuronales o tecnologías futuras, es teóricamente posible pero extremadamente incierta. Más allá de los desafíos técnicos, se requiere una comprensión más profunda de qué es la conciencia y cómo surge para siquiera acercarnos a replicarla.
 
Y se ponen a ver, nosotros los humanos básicamente no actuamos tan diferente a como lo hace una LLM, al final, qué uno define por entender y comprender? Nuestra comprensión igual puede ser erronea en ocaciones como muchos de los comentarios de AkaMe's iconAkaMe. Hagamos una prueba, a un humano se le hace una pregunta y va a recorrer todos los datos recopilados que tiene almacenado en el cerebro y va a responder con lo más acertado que tenga dependiendo del contexto y la situación. Si te dicen que 2 + 2 es igual a 4 sin saber matemáticas, no entiendes por qué es igual a 4, tiene que intervenir otro humano, explicarte que son los números y enseñarte a usar operaciones básicas.
 
Les voy a dar la misma respuesta que di en uno de los tantos debates en la uni.

Va a seguir haciendo falta gente capaz de darle instrucciones a la máquina sin contradicciones ni ambigüedades (a que no adivinas cómo se llama esto), cosa que no todo el mundo puede hacer. En este punto, la IA se vuelve un lenguaje de programación de alto nivel.
En efecto, mi opinión es más o menos la misma, por ahora la IA no ha llegado a ser tan capaz como suelen pintarla, es una cosa más mecánica, casi fuerza bruta con una base de conocimiento grande, una base de conocimientos provenientes de la creatividad humana, creada por los humanos con sus trabajos, lo cual no impide que en un mañana una IA de verdad pueda superarnos realmente.

Por ahora y por un tiempo más las IA van a ser herramientas sofisticadas, esas herramientas van a producir un aumento descomunal de la productividad del trabajo en muchas áreas de la actividad humana, ese va a ser el resultado más inmediato.

¿Qué sucede con eso?

Que también es cierto que ese aumento de la productividad sí va a provocar desempleo a mucha gente, porque mucha gente se dedica a hacer cosas que no requieren conocimientos reales y así son fácilmente reemplazados, gente dedicada prácticamente a hacer réplicas de lo existente, no serán reemplazados tan fácilmente los que tengan la capacidad creativa de imaginar nuevas tecnologías y hacer cosas por el estilo, la IA no tiene base de conocimientos para generar nuevos conocimientos de la nada, sólo un motor de inferencias, puede llegar a conclusiones lógicas a partir de lo conocido, por lo menos por ahora no puede generar nuevos conocimientos de verdad.

En realidad todo eso ha pasado con cada herramienta inventada, si tienes a un hombre con una retroexcavadora, no tiene caso pagarle a treinta hombres con picos y palas, ahora un sólo campesino produce para mucha más gente, lo mismo ha sucedido en todos lados, incluso siempre han dejado de existir profesiones reemplazadas por herramientas más sofisticadas, este caso no es diferente.

Pero en el mundo de la informática, como pasa en el mundo del arte y otros sectores, muchos caerán, porque son meros replicantes y eso lo hace bien la inteligencia artificial actual.
 
La conciencia en IA, utilizando redes neuronales o tecnologías futuras, es teóricamente posible pero extremadamente incierta. Más allá de los desafíos técnicos, se requiere una comprensión más profunda de qué es la conciencia y cómo surge para siquiera acercarnos a replicarla.
Pero si lo piensas nosotros mismos provenimos de ancentros que no tenían consciencia y sin embargo el cerebro humano llegó a tenerla por eso en mi opinión sí es cuestión de tiempo porque un humano no se distingue demasiado de una máquina en ese aspecto.
 
Y se ponen a ver, nosotros los humanos básicamente no actuamos tan diferente a como lo hace una LLM, al final, qué uno define por entender y comprender? Nuestra comprensión igual puede ser erronea en ocaciones como muchos de los comentarios de AkaMe's iconAkaMe. Hagamos una prueba, a un humano se le hace una pregunta y va a recorrer todos los datos recopilados que tiene almacenado en el cerebro y va a responder con lo más acertado que tenga dependiendo del contexto y la situación. Si te dicen que 2 + 2 es igual a 4 sin saber matemáticas, no entiendes por qué es igual a 4, tiene que intervenir otro humano, explicarte que son los números y enseñarte a usar operaciones básicas.
Sí, los humanos pueden pensar como una LLM pero no viceversa. Si quieres un contraejemplo, pregúntale a la IA que demuestre el teorema chino del resto usando los axiomas de Peano.
ChatGPT-4o hace un muy buen esfuerzo pero igual termina copiando la demostración de wikipedia.
 

Y se ponen a ver, nosotros los humanos básicamente no actuamos tan diferente a como lo hace una LLM, al final, qué uno define por entender y comprender? Nuestra comprensión igual puede ser erronea en ocaciones como muchos de los comentarios de AkaMe's iconAkaMe. Hagamos una prueba, a un humano se le hace una pregunta y va a recorrer todos los datos recopilados que tiene almacenado en el cerebro y va a responder con lo más acertado que tenga dependiendo del contexto y la situación. Si te dicen que 2 + 2 es igual a 4 sin saber matemáticas, no entiendes por qué es igual a 4, tiene que intervenir otro humano, explicarte que son los números y enseñarte a usar operaciones básicas.
Ya con las respuestas de moist y pcarballosa no se qué más decirte. No intento sonar condescendiente, pero con tanta insistencia más bien parece que te tomas las palabras de los expertos a modo de evangelio sin entender realmente de lo que están hablando (ej. te suenan de algo el término "función heurística" o la teoría de grafos?).
 
Atrás