¡Bienvenido!

Al registrarte con nosotros, podrás discutir, compartir y enviar mensajes privados con otros miembros de nuestra comunidad.

¡Regístrate ahora!

¿Qué es la informática? ?

Mensajes
150
Puntos de reacción
228
La informática o computación es la ciencia que estudia los métodos y técnicas para almacenar, procesar y transmitir información de manera automatizada, y más específicamente, en formato digital empleando sistemas computarizados.

No existe realmente una definición única y universal de lo que la informática es, quizá porque se trata de una de las ciencias de más reciente origen, aunque de desarrollo más vertiginoso y desenfrenado.

Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina y las ciencias de la computación (o la ingeniería informática), considerando que estas últimas posen un abordaje más teórico de la materia, mientras que la informática tiene siempre un costado práctico y aplicado, vinculado con los dispositivos electrónicos.

Otros, en cambio, consideran como subdisciplinas de la informática a las Ciencias de la computación, la Ingeniería informática, los Sistemas de información, la Tecnología de la información y la Ingeniería del software.

En todo caso, la informática como disciplina tiene que ver con el procesamiento automático de la información a través de dispositivos electrónicos y sistemas computacionales, dotados estos últimos de tres funciones básicas: el ingreso de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).


Características de la informática
La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

Su objeto de estudio puede resumirse en el tratamiento automatizado de la información mediante sistemas digitales computarizados.
Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos, aunque no se trata de una ciencia experimental.
Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las relaciones entre los sistemas de datos y las operaciones que estos ejecutan.
Es una de las disciplinas científicas más jóvenes, surgida formalmente en la segunda mitad del siglo XX.


Historia de la informática

Konrad Zuse inventó la primera computadora llamada z3.
Al contrario de lo que se cree, la informática es anterior a la invención de las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a. C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las máquinas programables del siglo XIX.

Sin embargo, en la primera mitad del siglo XX se creó la tecnología necesaria para desarrollar las primeras computadoras. Entre esos avances se encuentra el tubo al vacío, las puertas lógicas y los primeros circuitos, lo cual inauguró un campo del saber que muy pronto revolucionó a todos los demás y cambió la forma en que pensamos el trabajo.

También fue central el trabajo en algoritmos durante las primeras tres décadas del siglo, bajo el genio de figuras como el matemático británico Alan Turing (1912-1954). Por otro lado, el contexto de la Segunda Guerra Mundial impulsó a los primeros calculadores automáticos que se dispusieron para descifrar los códigos de guerra del enemigo.

La primera máquina de cálculo totalmente programable y automática fue inventada en 1941, llamada Z3, y en 1944 la primera máquina electromecánica, en la Universidad de Harvard en Estados Unidos: la Mark I.

Desde entonces, los sistemas informáticos no cesaron de cambiar. Se incorporaron nuevas tecnologías como los transistores, los semiconductores y diversos mecanismos de almacenamiento de información, desde las tarjetas perforadas hasta las primeras cintas magnéticas.

El primer computador de la historia fue el ENIAC (1946), de la Universidad de Pensilvania, que ocupaba un cuarto completo. Fue el primero de varias generaciones de sistemas informáticos por venir, cada vez más pequeños y potentes.

Las primeras escuelas de computación, en el marco de las universidades, surgieron entre las décadas de 1950 y 1960. Paralelamente la industria informática, naciente pero poderosa, que permeó todas las demás áreas del saber humano en apenas 60 años de desarrollo.


¿Para qué sirve la informática?

Casi ningún aspecto de la vida cotidiana se mantiene al margen del mundo digital.
La informática tiene como propósito clave el almacenamiento y la recuperación de información, lo cual ha sido una de las preocupaciones clave de la humanidad desde el inicio de los tiempos. En ese sentido, el primer sistema de almacenamiento fue la escritura misma, que permitía codificar mensajes y recuperarlos luego a través de marcas sobre una superficie.

Vista así, la informática ha llevado ese mismo principio al máximo, creando sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan información de manera masiva, eficiente y veloz. No en balde la informática interviene hoy en día en prácticamente todos los demás campos del saber de un modo o de otro.

Importancia de la informática
La importancia de la informática hoy en día no podría ser más evidente. En un mundo hipertecnologizado e hiperconectado, la información se ha convertido en uno de los activos más preciados del mundo, y los complejos sistemas informáticos que hemos construido nos permiten administrarlo de manera más veloz y eficiente que nunca antes en la historia.

La computación es una de las disciplinas de mayor demanda en el mercado universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital y de los grandes sistemas de procesamiento de información.

La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros es evidencia de ello: vivimos realmente en la era de la información, y la informática entonces no podría ser más importante.


Conceptos básicos de informática

El software de aplicación ofrece funciones que van desde el trabajo hasta el ocio.
Los conceptos más básicos de la informática son el hardware y el software.

El hardware es el aspecto físico, rígido, concreto y tangible de los sistemas informáticos. Son, así, las piezas y componentes que podemos tocar, intercambiar, romper, etc., algo así como el “cuerpo” de la computadora.

En dicha categoría se incluyen los componentes vitales de procesamiento (como el procesador de cálculo) o los dispositivos de almacenamiento (la memoria y los discos rígidos), pero también los dispositivos periféricos, que son aditamentos independientes del sistema, que se conectan con él para permitirle desempeñar diversas funciones.

Dependiendo de cuáles sean dichas funciones, podremos hablar de:

Dispositivos de entrada. Aquellos que permiten introducir información al sistema, como puede ser un teclado, un ratón, una cámara web o un escáner.
Dispositivos de salida. Aquellos que permiten extraer o recuperar información del sistema, como pueden ser el monitor, una impresora o unos parlantes.
Dispositivos de entrada/salida. Aquellos que son capaces de desempeñar ambas funciones a la vez o de manera sucesiva, como puede ser una impresora multifuncional, o un monitor táctil.
El software vendría a ser la mente del sistema informático, intangible, abstracto y sólo accesible a través del sistema. Existen muchísimos tipos de software, algunos de los cuales vienen ya preinstalados en sectores críticos de la computadora, mientras que otros sirven de interfaz entre el sistema y los usuarios, gobernando los dispositivos, controlando los recursos y permitiendo la instalación de programas secundarios que el usuario desee.

Así, podemos hablar de:

Software operativo o sistemas operativos. Aquellos programas que se necesitan para el funcionamiento mínimo del sistema y para que el usuario pueda disponer de sus recursos. Se trata de los programas fundamentales que proveen al usuario de un entorno de operaciones y que regulan el acceso a los recursos físicos del sistema, como la memoria, el procesador, etc.
Software de aplicación. Aquellos programas que el usuario instala en el sistema posteriormente y que le ofrecen determinadas funciones, que van desde el trabajo hasta el ocio: videojuegos, procesadores de texto, programas de diseño gráfico, programas antivirus, exploradores de la red, etc.
Tecnología informática
Se entiende por tecnología informática al estudio, desarrollo, gerencia y puesta en práctica de sistemas informáticos automatizados, especialmente desde la perspectiva del software.

Así, los especialistas en tecnología informática se dedican a distintas áreas de la actividad computarizada, como son el diseño de software, el establecimiento de redes informáticas, la gerencia de sistemas computarizados, el diseño de bases de datos, etc. Su propósito es el de facilitar la implementación de estas tecnologías en los ámbitos empresariales, productivos u organizacionales.
 
Era una de mis opciones de carrera, pero como desde niña me fijaron en la que terminé estudiando, pos ha sido mi sueño frustrado aprender un lenguaje de programación. En general creo que un programador es sexy?, es mi debilidad, eso y los metaleros. Si son las dos cosas ya muero. Pero hablando en serio, es un universo vastísimo y bello. Muuy complicado, pero útil.
 
La informática o computación es la ciencia que estudia los métodos y técnicas para almacenar, procesar y transmitir información de manera automatizada, y más específicamente, en formato digital empleando sistemas computarizados.

No existe realmente una definición única y universal de lo que la informática es, quizá porque se trata de una de las ciencias de más reciente origen, aunque de desarrollo más vertiginoso y desenfrenado.

Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina y las ciencias de la computación (o la ingeniería informática), considerando que estas últimas posen un abordaje más teórico de la materia, mientras que la informática tiene siempre un costado práctico y aplicado, vinculado con los dispositivos electrónicos.

Otros, en cambio, consideran como subdisciplinas de la informática a las Ciencias de la computación, la Ingeniería informática, los Sistemas de información, la Tecnología de la información y la Ingeniería del software.

En todo caso, la informática como disciplina tiene que ver con el procesamiento automático de la información a través de dispositivos electrónicos y sistemas computacionales, dotados estos últimos de tres funciones básicas: el ingreso de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).


Características de la informática
La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

Su objeto de estudio puede resumirse en el tratamiento automatizado de la información mediante sistemas digitales computarizados.
Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos, aunque no se trata de una ciencia experimental.
Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las relaciones entre los sistemas de datos y las operaciones que estos ejecutan.
Es una de las disciplinas científicas más jóvenes, surgida formalmente en la segunda mitad del siglo XX.


Historia de la informática

Konrad Zuse inventó la primera computadora llamada z3.
Al contrario de lo que se cree, la informática es anterior a la invención de las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a. C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las máquinas programables del siglo XIX.

Sin embargo, en la primera mitad del siglo XX se creó la tecnología necesaria para desarrollar las primeras computadoras. Entre esos avances se encuentra el tubo al vacío, las puertas lógicas y los primeros circuitos, lo cual inauguró un campo del saber que muy pronto revolucionó a todos los demás y cambió la forma en que pensamos el trabajo.

También fue central el trabajo en algoritmos durante las primeras tres décadas del siglo, bajo el genio de figuras como el matemático británico Alan Turing (1912-1954). Por otro lado, el contexto de la Segunda Guerra Mundial impulsó a los primeros calculadores automáticos que se dispusieron para descifrar los códigos de guerra del enemigo.

La primera máquina de cálculo totalmente programable y automática fue inventada en 1941, llamada Z3, y en 1944 la primera máquina electromecánica, en la Universidad de Harvard en Estados Unidos: la Mark I.

Desde entonces, los sistemas informáticos no cesaron de cambiar. Se incorporaron nuevas tecnologías como los transistores, los semiconductores y diversos mecanismos de almacenamiento de información, desde las tarjetas perforadas hasta las primeras cintas magnéticas.

El primer computador de la historia fue el ENIAC (1946), de la Universidad de Pensilvania, que ocupaba un cuarto completo. Fue el primero de varias generaciones de sistemas informáticos por venir, cada vez más pequeños y potentes.

Las primeras escuelas de computación, en el marco de las universidades, surgieron entre las décadas de 1950 y 1960. Paralelamente la industria informática, naciente pero poderosa, que permeó todas las demás áreas del saber humano en apenas 60 años de desarrollo.


¿Para qué sirve la informática?

Casi ningún aspecto de la vida cotidiana se mantiene al margen del mundo digital.
La informática tiene como propósito clave el almacenamiento y la recuperación de información, lo cual ha sido una de las preocupaciones clave de la humanidad desde el inicio de los tiempos. En ese sentido, el primer sistema de almacenamiento fue la escritura misma, que permitía codificar mensajes y recuperarlos luego a través de marcas sobre una superficie.

Vista así, la informática ha llevado ese mismo principio al máximo, creando sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan información de manera masiva, eficiente y veloz. No en balde la informática interviene hoy en día en prácticamente todos los demás campos del saber de un modo o de otro.

Importancia de la informática
La importancia de la informática hoy en día no podría ser más evidente. En un mundo hipertecnologizado e hiperconectado, la información se ha convertido en uno de los activos más preciados del mundo, y los complejos sistemas informáticos que hemos construido nos permiten administrarlo de manera más veloz y eficiente que nunca antes en la historia.

La computación es una de las disciplinas de mayor demanda en el mercado universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital y de los grandes sistemas de procesamiento de información.

La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros es evidencia de ello: vivimos realmente en la era de la información, y la informática entonces no podría ser más importante.


Conceptos básicos de informática

El software de aplicación ofrece funciones que van desde el trabajo hasta el ocio.
Los conceptos más básicos de la informática son el hardware y el software.

El hardware es el aspecto físico, rígido, concreto y tangible de los sistemas informáticos. Son, así, las piezas y componentes que podemos tocar, intercambiar, romper, etc., algo así como el “cuerpo” de la computadora.

En dicha categoría se incluyen los componentes vitales de procesamiento (como el procesador de cálculo) o los dispositivos de almacenamiento (la memoria y los discos rígidos), pero también los dispositivos periféricos, que son aditamentos independientes del sistema, que se conectan con él para permitirle desempeñar diversas funciones.

Dependiendo de cuáles sean dichas funciones, podremos hablar de:

Dispositivos de entrada. Aquellos que permiten introducir información al sistema, como puede ser un teclado, un ratón, una cámara web o un escáner.
Dispositivos de salida. Aquellos que permiten extraer o recuperar información del sistema, como pueden ser el monitor, una impresora o unos parlantes.
Dispositivos de entrada/salida. Aquellos que son capaces de desempeñar ambas funciones a la vez o de manera sucesiva, como puede ser una impresora multifuncional, o un monitor táctil.
El software vendría a ser la mente del sistema informático, intangible, abstracto y sólo accesible a través del sistema. Existen muchísimos tipos de software, algunos de los cuales vienen ya preinstalados en sectores críticos de la computadora, mientras que otros sirven de interfaz entre el sistema y los usuarios, gobernando los dispositivos, controlando los recursos y permitiendo la instalación de programas secundarios que el usuario desee.

Así, podemos hablar de:

Software operativo o sistemas operativos. Aquellos programas que se necesitan para el funcionamiento mínimo del sistema y para que el usuario pueda disponer de sus recursos. Se trata de los programas fundamentales que proveen al usuario de un entorno de operaciones y que regulan el acceso a los recursos físicos del sistema, como la memoria, el procesador, etc.
Software de aplicación. Aquellos programas que el usuario instala en el sistema posteriormente y que le ofrecen determinadas funciones, que van desde el trabajo hasta el ocio: videojuegos, procesadores de texto, programas de diseño gráfico, programas antivirus, exploradores de la red, etc.
Tecnología informática
Se entiende por tecnología informática al estudio, desarrollo, gerencia y puesta en práctica de sistemas informáticos automatizados, especialmente desde la perspectiva del software.

Así, los especialistas en tecnología informática se dedican a distintas áreas de la actividad computarizada, como son el diseño de software, el establecimiento de redes informáticas, la gerencia de sistemas computarizados, el diseño de bases de datos, etc. Su propósito es el de facilitar la implementación de estas tecnologías en los ámbitos empresariales, productivos u organizacionales.
Mucho texto ??‍♂️
Yo quise estudiar en la UCI pero me dijeron que era una "shit" así que termine cojiendo ing. Mecánica, en fin deje la carrera en primer año y ahora estoy esperando para comenzar ing. Informática por encuentro >:v La informática es una mis pasiones, es lo que siempre he querido estudiar después de arqueológia, pero ya que esta última no tengo conocimiento de sus estudios en nuestro territorio, me quedo con informática :v
La verdad es una pena que no halla podido estudiar arqueológia ?✨ pero en el listado de carreras de mi escuela no estaba esa opción.
 
La informática es una ciencia muy inexacta (de hecho no creo que sea una ciencia en si), el padre de la informática es Charles Babbage. En ella convergen un conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores, también interviene como es lógico el comprtamiento humano.
 
el padre de la informática es Charles Babbage
Retrocediendo lo suficiente, posiblemente, pero entonce, podrías seguir retrocediendo hasta llegar a la Antigua Grecia.

Si bien la obra de Babbage ha influenciado las cosas, es realmente Alan Turing a quien se considera el padre de la informática moderna. Fue él quien formalizó los conceptos de algoritmo y computación con la Máquina de Turing, una máquina abstracta que puede considerarse como el modelo de las computadoras actuales y altamente influencial para campos como la programación (ej. véase Turing completo) y la inteligencia artificial.
 
Bueno ya que estoy sisndo retado en este foro tengo que dar explicacionbes muy certeras y eso intentaré hacer (siempre resumiendo pero con alto nivel científico) de ahora en adelante, vamos allá:

¿por qué se confunde con tanta facilidad, Informática ,Computación y Ciencia de la información? al revisar las definiciones existentes en la literatura, me causa dudas sobre si realmente son ciencias distintas.
¿La Computación, la Informática y las Ciencias de la Información surgieron en forma independiente y se entrelazaron después o son estadios de la evolución de una misma ciencia?A priori, tanto la Computación, y más tarde la Informática, como las llamadas Ciencias de la Información, surgieron en forma independiente y, en un momento histórico concreto, se interrelacionaron producto de ciertas condiciones materiales que así lo determinaron. Fue precisamente con estas especulaciones donde comenzó la agonía por hallar algunos elementos necesarios entre el caos de definiciones y opiniones existentes sobre estos temas que pudieran respaldar una hipótesis.

La Informática: Al momento de definir la informática, según las múltiples fuentes consultadas, parecen existir tres posturas principales, claro, que cada una de las definiciones presenta sus matices particulares: una, que la considera como un campo o ciencia emergente donde concurren distintas disciplinas, otra que la identifica con la computación y una tercera que la considera una ciencia de la información. La Informática es una disciplina emergente-integradora que surge producto de la aplicación-interacción sinérgica de varias ciencias, como la computación, la electrónica, la cibernética, las telecomunicaciones, la matemática, la lógica, la lingüística, la ingeniería, la inteligencia artificial, la robótica, la biología, la psicología, las ciencias de la información, cognitivas, organizacionales, entre otras.

La Computación: en sentido general, comprende la creación de algoritmos para la solución de problemas (computación) y el procesamiento de la información a nivel de software y hardware. La solución de cualquier problema requiere de un procedimiento, un método, una serie de pasos ordenados para convertir las entradas en salidas, los daos en soluciones. La Computación se ocupa de las herramientas, tanto a nivel de hardware como de software, para la solución de los problemas en forma automática. Una computadora es cualquier dispositivo que se emplee para procesar información según un procedimiento bien definido. Comprende desde los dispositivos mecánicos como la regla de cálculo, toda la gama de calculadoras mecánicas desde el ábaco hacia adelante, además de las computadoras electrónicas contemporáneas.

La Ciencia de la Información: surgió producto de la necesidad de desarrollar un nuevo modelo o paradigma de trabajo capaz de responder a los cambios operados, como consecuencia del propio progreso científico y tecnológico, en el campo de las necesidades de información en la sociedad, ante las evidentes limitaciones de la Bibliotecología y la Documentación para responder con efectividad a los nuevos retos. La Ciencia de la Información es parte de un agregado de disciplinas denominado Ciencias de la Información. Dicho agregado abarca a la Bibliotecología, la documentación -el antecedente más directo de la ciencia de la información-, la bibliografía, entre otras disciplinas. La Bibliotecología estudia el libro y la biblioteca (la actividad y los procesos bibliotecarios), la Documentación el documento y el centro de documentación (la actividad y los procesos documentales), la Ciencia de la Información, la información y la comunicación científica -sus registros formales e informales-, así como la institución que atesora la información, el centro de información o alguna de sus variedades: unidad de análisis y referencia, biblioteca virtual, web, ...(la actividad y los procesos informacionales).
;)
 
Atrás