Informatica

¿Qué es la informática?

Índice

El término informática tiene su origen en la palabra francesa informatique, la cual fue acuñada por un ingeniero francés llamadao Philippe Dreyfus en el año 1962. Concretamente se trata de un acrónimo que proviene de las palabras information y automatique. 

Existen muchas definiciones acertadas a la hora de referirnos al significado de la informática, pudiéndolas resumir en: aquella disciplina que se encarga, a través del estudio de métodos, procesos, técnicas y desarrollo de equipos o computadoras, de almacenar, procesar y transmitir información y datos a través de un formato digital.

Un sistema informático debe ser capaz de realizar tres tareas:

  • Tarea de entrada: captar la información
  • Procesar los datos obtenidos
  • Tarea de salida: transmitir la información

Este tratamiento de la información se realiza combinando conocimiento tanto científicos como tecnológicos. Además integra aspectos de otras ciencias como la ingeniería, la electrónica, las matemáticas, la lógica, la teoría de la información y el comportamiento humano.

Estos son todas las alternativas de servicios y productos informáticos:

¿Origen y evolución de la informática?

La necesidad de agilizar diferentes procesos por medio de objetos o instrumentos, se remonta a varios miles de años atrás en el tiempo. Una de las primeras referencias se sitúa hace algo más de 2000 años a.C cuando la cultura oriental china se servía del ábaco para realizar complejos cálculos rápidamente. 

Sin embargo uno de los acercamientos a la informática tal y como la conocemos hoy día se produjo en el siglo XVII. En este siglo tuvo lugar la invención de la primera máquina calculadora gracias al científico Blas Pascal. Si bien se trataba de un equipo de grandes dimensiones que alcanzaba apenas a realizar sumas y restas, sirvió de inspiración a otros científicos que mejoraron sus funciones.

Así, en el siglo XVII, Gottfried Leibniz mejoró la idea de Pascal, creando una máquina que era capaz de hacer sumas, restas, multiplicaciones y divisiones. La evolución de la calculadora continuaría hasta nuestros días. Sin embargo serviría de inspiración para la creación de un equipo mucho más cercano a la idea de informática actual: el ordenador.

Las generaciones del ordenador

El primer el ordenador se creó en el año 1944 y fué conocido como Eniac. La evolución posterior se clasifica en varias generaciones

  • 1ª Generación: Entre 1940 y 1952 el uso de los ordenadores se limitaba al área científico/militar. Su uso estaba sometido a la modificación en los valores de los circuitos
  • 2ª Generación: Entre 1952 a 1964 empiezan a aparecer los primeros ordenadores comerciales y surgen los sistemas operativos. Así, comenzó a hacerse uso de los lenguajes de programación
  • 3ª Generación: Entre 1964 y 1971 se utilizan los circuitos integrados y una mejora notable en los lenguajes de programación. El tamaño de los ordenadores es más reducido
  • 4ª Generación: Entre 1971 y 1981 surge el microprocesador lo cual supuso un gran paso en el avance de la informática al integrar todos los elementos básicos de un ordenador en un mismo circuito integrado
  • 5ª Generación: A partir de 1981 hasta la actualidad, surgen los primeros ordenadores personales de la mano de la compañía IBM. Aparecen funcionalidades más cercanas a los que utilizamos hoy día

¿Qué aplicaciones tiene la informática actual?

medicina-informatica

La evolución de la informática ha sido imparable a lo largo de los siglos. En parte ha estado motivada por el valor a nivel de desarrollo que produce en diferentes ámbitos del ser humano. 

La informática está presente en multitud de ámbitos diferentes en nuestra vida mejorando, no solamente la agilización de procesos, sino contribuyendo al avance tecnológico, científico e incluso educativo de la sociedad.

Aplicaciones informáticas en industria

La implantación de equipos informáticos en la industria ha traído numerosas ventajas. Son destacables el abaratamiento de costes, los efectos positivos en la productividad y la mejora en la calidad y eficiencia en procesos productivos. 

Su impacto también ha sido especialmente positivo a gran escala. Muchas empresas han mejorado el nivel de automatización, posibilitando su desarrollo a nivel global.

Aplicaciones informáticas en medicina

En el área de salud, la informática ha sido especialmente relevante para el avance de los diagnósticos de enfermedades o el control de signos vitales en pacientes. Incluso es posible, a través de dispositivos electrónicos, realizar cirugías. 

A nivel administrativo y de procesamiento de datos, la informática ha jugado un gran papel. Su uso posibilita el tratamiento de mucha información gracias a los software de gestión hospitalaria. 

Es relevante, además, su uso en áreas de investigación, farmacia o laboratorio.

Aplicaciones informáticas en educación

Otra de las áreas que se ha visto indiscutiblemente beneficiada por el avance de la informática es el ámbito de la educación. Gracias a los avances informáticos es posible mejorar la metodología de estudio. A la vez es destacable el acceso a fuentes de información las cuales son casi infinitas.

Por otro lado, los métodos de enseñanza han mejorado ofreciendo posibilidades atractivas a la hora de estudiar. Todo ello gracias al uso de material interactivo y aplicaciones específicas para mejorar el aprendizaje en cualquier disciplina.

No hay que olvidar la importancia que la informática tiene a la hora de desarrollar la educación online. Esta es una nueva modalidad que permite que muchos más usuarios tengan acceso a la educación en todos los niveles.

Terminología utilizada en informática

  • Hardware: parte física, tangible del ordenador en la que se engloba la CPU, la memoria RAM o los periféricos
  • Firmware: hace referencia a la parte lógica del ordenador. Está formado por las instrucciones de un programa informático que se aloja, generalmente, en la memoria ROM
  • Software: conjunto de programas específicos que posibilitan que se lleve a cabo una determinada función dentro de un sistema. Es un elemento intangible
  • Dígito binario, bit: unidad de medida de información de una computadora. Tendrá un solo valor que será o 1 o 0. Varios bits combinados originarán otras unidades que serán el Byte, el Mega, el Giga y el Tera. Todos los archivos son medidos en bit, así como las tasas de transferencia y el lenguaje del usuario, el cual es convertido a bits para que el ordenador lo pueda descifrar
  • Datos: son representaciones de letras o números que por sí solos no tienen ningún tipo de significado. Sin embargo, en conjunto permiten obtener una información completa que el ordenador es capaz de interpretar
  • Byte: es un conjunto de 8 bits que conforman una secuencia
  • Gigabyte: unidad equivalente a 1 000 000 000 de bytes
  • Kilobyte: unidad de medida equivalente a 1024 bytes
  • Megabyte: unidad de medida equivalente a 1 048 576 bytes
  • Terabyte: unidad de medida igual a 1 099 511 627 776 bytes o 1024 gigabytes
  • CPU: unidad central de procesamiento que controla el sistema operativo y las aplicaciones
  • Unidad de procesamiento gráfico (GPU): circuito electrónico que controla la memoria del ordenador para posibilitar la representación de imágenes en la pantalla
  • Unidad de disco duro: es un elemento del hardware que almacena datos creados por el usuario principalmente
  • Memoria RAM: es un elemento físico que almacena datos de forma temporal de modo que los programas informáticos pueden acceder a ella con velocidad
  • Sistema operativo: es un software encargado de hacer funciones básicas para que el ordenador responda adecuadamente. Por ejemplo ejecutar aplicaciones o controlar los periféricos
  • Programa: instrucciones que el ordenador lleva a cabo para poder hacer una acción específica
  • Periférico: dispositivo a través del cual entra o sale información desde y hacia el ordenador

Ventajas  y desventajas del uso de la informática

Ventajas

  • Ha mejorado y agilizado el procesamiento de datos y la gestión de grandes volúmenes de información
  • Es un sector que está en constante evolución y crecimiento permitiendo el desarrollo de programas y aplicaciones que facilitan la vida de los usuarios
  • Mejora la productividad en las empresas
  • Facilita el acceso a la información a un sector más amplio de la población
  • Permite la comunicación entre usuarios que se encuentran a miles de kilómetros de distancia
  • La comunicación entre usuarios es más barata e instantánea
  • Es posible acceder a multitud de archivos de todo tipo de temáticas sin necesidad de trasladarse. Es el caso de las bibliotecas digitales, los museos virtuales, los trabajos de tipo académico y científico….
  • A través de la informática es posible estar al tanto de cualquier noticia que suceda en diferentes partes del mundo. La información se actualiza en tiempo real

Desventajas

  • Es más habitual que se produzcan problemas de plagio o violación de derechos de autor. Esto se debe a que la información es más accesible y está menos controlada
  • La informática no está exenta de riesgos. Es el caso de los virus informáticos que no solamente ponen en peligro la integridad de los equipos sino los datos personales de sus usuarios
  • Al ser un medio de comunicación tan abierto, muchos usuarios hacen un mal uso de la informática contribuyendo a la difusión de falsas noticias. Esto da lugar a la aparición de fake news
  • El uso de la informática en diferentes ámbitos, hace que mucha información dependa únicamente de un software. Un software sujeto a riesgos y fallos. Es el caso de los ciberataques, los cuales puede imposibilitar el acceso a los datos contenidos o paralizar cualquier trabajo
  • El hecho de estar continuamente dependiendo de dispositivos electrónicos puede causar problemas de aislamiento social. También puedes producirse adicción a ciertos programas, juegos o redes sociales

¿Cómo influirán los avances informáticos en el futuro?

realidad-virtual

Estamos en la era de las nuevas tecnologías, muchas de ellas posibilitadas por el avance imparable de la informática. Algunos de los sectores que tendrán un mayor desarrollo serán los siguientes.

Desarrollo en Realidad Virtual

Uno de los sectores que más se potenciarán será el de la Realidad Virtual. Este avance supondrá una nueva forma de percibir todo lo que nos rodea. Esto sucederá gracias a la habilidad que esta tecnología ofrece a la hora de representar escenas y objetos. Esto hará que el usuario se sienta completamente inmerso en un entorno creado virtualmente. 

La Realidad Virtual es ya un hecho en muchos ámbitos como es la educación, la arquitectura, los videojuegos o la medicina. Las compañías ya trabajan en el desarrollo de imágenes en HD y gafas que no necesiten cables. Una de las propuestas más ambiciosas será la integración de inteligencia artificial.

Desarrollo en Realidad Aumentada

La Realidad Aumentada es otro de los objetivos más prometedores en el desarrollo informático de los próximos años. Se trata de una tecnología que aprovecha el entorno del usuario para ofrecerle datos e información digital sobre una realidad, utilizando para ello lo que percibe a través de sus sentidos.

Mediante unas gafas de realidad aumentada, el usuario podrá acceder a todos los datos relacionados con cualquier persona con la que interactúe. Las relaciones sociales se verán muy afectadas por estos cambios, aunque no será el único ámbito de aplicación.

La Realidad Aumentada permitirá crear una visión tridimensional de cualquier elemento. Será posible manipular objetos o realizar acciones como probarse ropa o montar un mueble mediante instrucciones virtuales.

Estos avances supondrán un gran cambio en el modo de vivir y de percibir los estímulos. Esto provocará un cúmulo de experiencias y sensaciones jamas vividas anteriormente.

Desarrollo del Big Data

El Big Data es un concepto relativamente nuevo que empieza a ser cada vez más habitual en el mundo de la informática. El término Big Data hace referencia a la gestión y el análisis de grandes volúmenes de datos estructurados, no estructurados y semi-estructurados. Se habla de Big Data cuando este volumen de datos es tal que supera la capacidad de un software para su gestión

El Big Data del futuro se centrará en mejorar la privacidad y la seguridad de los datos, vulnerables a los ciberataques. Su desarrollo dará lugar a la creación de nuevos puestos de trabajo con un aumento de demanda de perfiles técnicos. Incluso surgirán nuevos perfiles profesionales.

Por otro lado mejorará la gestión de datos en tiempo real.  Esto se traduce en una mejora en cuanto a la toma de decisiones en una empresa. Permitirá realizar una mejor gestión interna y una segmentación más óptima de clientes. 

El Big Data es una de las grandes apuestas del futuro.

Conclusiones

Vivimos y nos desarrollamos en un entorno que en su mayor parte se encuentra altamente informatizado. Se ha demostrado que las aplicaciones de la informática han servido para mejorar la calidad de vida de los usuarios. Este será un objetivo que se mantendrá en futuros avances.

El cambio en la forma de vida actual irá en consonancia con el crecimiento de la informática. Queda esperar si finalmente seguirá contribuyendo a mejorar la vida de los usuarios y en qué medida modificará las relaciones con el entorno.