Contenidos
Lógico británico fundador de la informática
Tim Berners-Lee es el inventor de la World Wide Web y del HTML. Nació en Inglaterra y tiene formación en ingeniería, a través del desarrollo de sistemas informáticos en los años 80. Es un verdadero pionero en el campo de la informática, y sin las ideas y el trabajo de desarrollo de Tim, sencillamente no tendríamos Internet tal y como la conocemos hoy.
Tim es el director del World Wide Web Consortium (W3C), donde actualmente supervisa el desarrollo de la web. Además, Tim imparte clases de informática en la Universidad de Oxford. Tim fue nombrado caballero por la Reina Isabel II por su contribución y nombrado por la revista Time por ser una de las personas más importantes e influyentes del siglo XX.
John von Neumann es un informático y matemático húngaro-estadounidense, conocido por su trabajo como pionero en el campo de la teoría de los juegos. A lo largo de su vida contribuyó con más de 150 artículos, repartidos entre las matemáticas puras y aplicadas y otros temas especializados. En la Segunda Guerra Mundial, John von Neumann también trabajó en el Proyecto Manhattan, donde resolvió problemas en el ámbito de la física nuclear.
Padre de la informática y la inteligencia artificial
La historia de la informática comenzó mucho antes de nuestra disciplina moderna de la ciencia de la computación, apareciendo generalmente en formas como las matemáticas o la física. Los desarrollos de los siglos anteriores aludían a la disciplina que hoy conocemos como informática[1]. Esta progresión, desde los inventos mecánicos y las teorías matemáticas hasta los conceptos y las máquinas de computación modernas, condujo al desarrollo de un importante campo académico, al avance tecnológico masivo en todo el mundo occidental y a la base de un comercio y una cultura mundiales masivos[2].
La primera herramienta conocida para el cálculo fue el ábaco, desarrollado en el período comprendido entre el 2700 y el 2300 a.C. en Sumer[3]. El ábaco de los sumerios consistía en una tabla de columnas sucesivas que delimitaban los sucesivos órdenes de magnitud de su sistema numérico sexagesimal[4]: 11 Su estilo original de uso era mediante líneas dibujadas en la arena con guijarros. En la actualidad se siguen utilizando ábacos de diseño más moderno como herramientas de cálculo, como el ábaco chino[5].
Se cree que el mecanismo de Anticitera es una de las primeras computadoras mecánicas analógicas[7], diseñada para calcular posiciones astronómicas. Se descubrió en 1901 en el pecio de Anticitera, frente a la isla griega de Anticitera, entre Citera y Creta, y se ha datado en torno al año 100 a.C.[7].
Informáticos famosos
(Imagen: Shutterstock)La informática sigue rompiendo fronteras hoy en día. Los dispositivos electrónicos que se pueden llevar puestos, los coches que se conducen solos y las comunicaciones por vídeo dan forma a nuestras vidas a diario. La historia de la informática proporciona un contexto importante para las innovaciones actuales. Gracias a la informática, hemos llevado a una persona a la luna, hemos conectado el mundo con Internet y hemos puesto un dispositivo informático portátil en seis mil millones de manos. En 1961, George Forsythe inventó el término “informática”. Forsythe definió el campo como teoría de la programación, procesamiento de datos, análisis numérico y diseño de sistemas informáticos. Sólo un año después, se creó el primer departamento universitario de informática. Y Forsythe pasó a fundar el departamento de informática de Stanford. Una mirada retrospectiva al desarrollo de los ordenadores y la informática ofrece un contexto valioso para los profesionales de la informática de hoy.
En la década de 1840, Ada Lovelace se dio a conocer como la primera programadora de ordenadores cuando describió una secuencia operativa para la resolución de problemas con máquinas. Desde entonces, la tecnología informática ha despegado. Un repaso a la historia de la informática muestra los numerosos y decisivos avances en este campo, desde la invención de las tarjetas perforadas hasta el transistor, el chip informático y el ordenador personal.
Investigación en informática
Tras la caída de las punto com en 2001, el número de estudiantes que se matriculan en programas de informática disminuyó hasta 2007. Sin embargo, esa tendencia se está invirtiendo, según los nuevos datos de la encuesta anual Taulbee de la Computing Research Association (CRA). Las inscripciones totales entre los estudiantes de ciencias de la computación de EE.UU. aumentaron un 10% en 2010, el tercer año consecutivo de aumentos, lo que indica que el declive ha terminado. La encuesta documenta las tendencias en la matriculación de estudiantes, el empleo de los graduados y otros aspectos de la informática en Estados Unidos y Canadá.
“‘Hackers’ es, sin duda, profundamente dudoso en el departamento de informática. Aunque no cabe duda de que en la vida real ningún hacker podría hacer lo que hacen los personajes de esta película, no cabe duda de que lo que pueden hacer los hackers no sería una película muy entretenida”.
La popularidad de la informática como especialidad académica ha aumentado y disminuido a lo largo de los años. Las matriculaciones en Estados Unidos descendieron significativamente en 2004 y 2005, después de que los analistas predijeran que muchos trabajos de programación informática emigrarían a la India. Pero desde la crisis financiera de 2008, la informática ha recuperado su popularidad. El entusiasmo de estos días se centra en los programas interdisciplinarios que combinan la informática con la biología, la medicina y los negocios. “La disciplina es aún lo suficientemente joven como para no estar anclada en la tradición. Se están produciendo cambios”, dice Brooks, que sigue siendo profesor en la UNC.