Mostrando las entradas con la etiqueta Historia. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Historia. Mostrar todas las entradas

lunes, 11 de julio de 2016

¿Serán estos los últimos días de la dupla PC/Windows?

Cárdenas, Tabasco, México; 7 de Julio de 2016.- Inicio mi entrada del Blog con esta imagen, tengo largo rato sin aportar nada a este Blog, pero cuando me aparte del mismo, hace apenas tres años, las estadísticas de acceso en las visitas a la página por navegadores las dominaba Microsoft Internet Explorer, muy por encima de cualquier otro navegador; mientras que, las visitas a las páginas por sistema operativo las dominaba Microsoft Windows, mientras Linux y Android no parecían tener mucho futuro, hoy día las cosas han cambiado radicalmente, Apple se glorificaba con su cuota de mercado de 13% que predecía aumentaría rápidamente con sus innovadores dispositivos, hoy parece seguir perdiendo pero esta vez ante un nuevo competidor Android, es decir, el gran ganador a largo plazo de esta batalla inmisericorde por el mercado, es, el software de código abierto, los grandes perdedores terminan siendo los productos de código propietario.
Pero cuidado, no se malinterprete que ganó el software gratuito, ganan los estándares abiertos, pero las empresas y los particulares con los conocimientos adecuados siguen estando en la posibilidad de vivir a base de sus creaciones, eso si, obligados a brindar a sus usuarios interoperabilidad y sobre todo las posibilidad de modificar en muchas formas el funcionamiento de las aplicaciones o extender sus funcionalidades, si desean ser atractivos; los días en los que el software era una caja negra e inmutable para los usuarios parecen estar llegando a su fin, bases de datos, firmware, aplicaciones, protocolos y lenguajes de programación son cada día más personalizables por quienes los escojan para trabajar, y se pone de moda nuevamente el "hágalo usted mismo" de los años 80's, que vendió infinidad de ejemplares y permitió a muchos sentirnos amos y señores de la construcción, la jardinería, la ebanistería, y demás labores manuales que antes eramos obligados a encargar a artesanos y especialistas, eso no significó en modo alguno la quiebra de todas las empresas y talleres, sino por el contrario la revitalización de las formas de hacer negocios, ya que podías intentarlo por tu cuenta, y si no te quedaban bien después de muchos intentos, terminabas llamando al especilista para que resolviera tus problemas.
La misma situación se plantea ahora en el ámbito de la informática los "kits" de hágalo usted mismo, y modifíquelo a su gustó, que también llegaron a ser populares en el automovilismo, están presentes como herramientas de desarrollo de software o programación de APPs de célular o más tangiblemente como Kits de ensamble de dispositivos mecatrónicos tipo Arduino (Genuino) que generan oleadas de entusiastas queriendo aprender a usar la tecnología pero de los cuales solo unas cuantas decenas hallaran el modo de capitalizar sus conocimientos.
Estamos viviendo el cambio que se pronosticaba pero lucía como improbable hace apenas 3 años, no cabe duda que los teléfonos celulares inteligentes, las tabletas y los televisores inteligentes podrían significar a mediano plazo, la desaparición de las computadoras de escritorio de nuestras vidas y quizá con ellas termine la era del teclado y el mouse como dispositivos de entrada indispensables y omnipresentes en el hogar.
El grave error de Redmond fue creer que las cosas no podrían cambiar, y nos hace pensar que, aquello de que las historias se repiten, es una gran paradoja de la historia de la humanidad, IBM desprecio a las Computadoras de Escritorio como opción de negocios en el hoy lejano año 1981, Microsoft desestimo el impacto de la inclusión de un Linux modificado (Android) en los teléfonos inteligentes en el lejano año de 2008, y ahora, el tiempo de cambio ha llegado de la mano del triunfo de los estándares abiertos sobre el software propietario, e irónicamente la razón principal de este giro es la obstinada obsesión de Redmond por ser como IBM.
¿Qué pasará de aquí en adelante?, ¿Android se apoderará también del escritorio o lo hará desaparecer?, ¿Microsoft sobrevivirá este nuevo desafió y será capaz de adaptarse al cambio como IBM o NOKIA?.

jueves, 13 de junio de 2013

Almacenamiento en la nube, ¿una realidad que aceptaremos?

Servicios de almacenamiento gratuito en la Nube
Servicios de almacenamiento gratuito en la Nube
Hace menos de una década, leí en un artículo de una revista especializada en informática que se estaba tratando de enfocar los esfuerzos a lograr que las empresas y las personas vieran el almacenamiento de sus datos en la red y no en sus computadoras como el futuro de la movilidad y la independencia de los datos, en tratar de diseñar las aplicaciones de productividad de modo tal que pudiesen desplegarse correctamente en cualquier dispositivo, sin importar arquitectura física o sistema operativo, en fin, que el futuro estaba en el almacenamiento masivo de los datos en una red mundial de servidores a la que se le denominaba "la nube", que en los próximos años, sería una realidad para todos, que ya nadie se preocuparía por tener espacio de almacenamiento limitado, porque en "la nube" este sería prácticamente infinito; el secreto detrás de este concepto era la de contar con Internet omnipresente en cualquier rincón del planeta, obviamente este concepto no era para todos, estaba principalmente enfocado a los sectores empresariales y a la gente con acceso a los medios necesarios como el Internet de alta velocidad y las conexiones satélites.
Sin embargo los gobiernos desde aquella época hasta ahora, han dado buenos pasos para acercar a la gente de la calle la posibilidad de que la computación en "la nube" también sea accesible para ellos, iniciativas como la de la ONU de declarar el acceso a Internet como un derecho fundamental del hombre, hacen posible que ahora tengamos acceso a Internet en muchos sitios donde antes no era posible y además que sea gratuito.
En México, el gobierno de la república ya tomo cartas en el asunto para ponernos a tono con las tendencias mundiales de los miembros de la OCDE, en cuanto a la idea de contar con el acceso a Internet, desgraciadamente la infraestructura presente en el país hace muy difícil que estas disposiciones se lleven a la practica a como lo marca idealmente el decreto presidencial. solo en las ciudades de mediana importancia y en lugares públicos muy específicos es posible que esta disposición se vuelva una realidad, siendo que en la práctica en la mayoría de los casos la cobertura dentro de esos sitios públicos es deficiente y complicada, y la velocidad de conexión dista mucho de ser adecuada.
Dropbox esta pensado en almacenamiento de imágenes.
Aún así, es un hecho que cada vez es más frecuente que los jóvenes, los adolescentes y hasta los niños se mantengan conectados de una u otra forma en las redes sociales, almacenen sus datos en Internet y compartan cotidianamente información.
Como decía una frase publicitaria: "El futuro es... ¡Hoy!".

Box esta enfocado a la publicación totalmente en línea, para ello se apoya de la tecnología de Google Docs

El almacenamiento en la Nube ya es una realidad, aunque actualmente nuestros país adolece de altos costos por acceso a Internet y falta de cobertura en todo el territorio, estamos más cerca que nunca de lograr que el almacenamiento en la Nube sea una realidad para todos, bueno al menos para todos los que podemos acceder a Internet, más difícil será lograr que soltemos nuestros archivos personales para que se alojen únicamente en servidores anónimos, protegidos por contraseñas y protocolos de seguridad en los cuales deberemos aprender a confiar, si queremos integrarnos a la modernidad, en caso contrario, siempre tendremos la posibilidad de conservar nuestros archivos personales en medios de almacenamiento removibles, discos duros, aunque eso sería regresivo, considerando que lo que se busca es la movilidad e independencia del hardware, y la omnipresencia del software apoyado por estándares que permitan compartir la información sin problemas a como podemos compartir las fotografías impresas con todo aquel que tenga la posibilidad de ver.
Drive (Google Docs) es la oferta de almacenamiento en la Nube y Edición en línea integrados (un todo en uno) y por mucho la mejor oferta en este momento.
En nuestro país aún no es completamente una realidad, pero con la cantidad de compañías dedicadas a ofrecer servicios de almacenamiento en la Nube gratuitos, considero que sería un error no adherirse a la tendencia, si lo único que tenemos que hacer para conservar ese almacenamiento gratuito es en todo caso soportar un poco de publicidad, que si comparamos este hecho con el estado de los servicios de TV por cable y satélite, en las cuales tenemos que pagar una mensualidad y aguantarnos los interminables anuncios, considero que es a todas luces una ganga.
No esperemos más y decidámonos a unirnos a la tendencia de trabajar nuestra información en la Nube.

jueves, 2 de mayo de 2013

Centros de cómputo escolares


Los centros de cómputo en el sistema educativo mexicano se presentaron como la panacea en el camino a la educación de calidad de las instituciones de educación, se pensaba que bastaba con poner al alcance de la población estudiantil, automáticamente se tendría la seguridad de que estos estarían mejor preparados para enfrentar los retos del mercado laboral, muchas veces en México se ha utilizado el pensamiento de que la naturaleza siempre busca equilibrarse, y se dejan al garete muchas cosas que deberían planificarse, prueba de ello son los fracasos de las reformas agrarias, las reformas laborales, las reformas económicas y muy desgraciadamente las reformas educativas.
México tiene una larga historia de fracasos en la implementación de políticas públicas y programas sociales, fracaso producto de la pereza mental de los dirigentes del país quienes acostumbran copiar y adaptar modelos de éxito en otras regiones, sin considerar las limitantes existentes en el país, y las idiosincrasias propias del país.
Los centros de cómputo en las instituciones educativas fueron introducidos por mandato, se convirtieron en un elemento obligatorio con el cual habría de contarse en cada escuela pública, sin embargo, no se consideraron factores como la infraestructura, el mantenimiento, el personal capacitado, se repartieron a diestra y siniestra equipamientos de cómputo a las escuelas, mismos que iban desde apenas una computadora hasta lotes de cientos de equipos, en muchas ocasiones estos equipos llegaron a las escuelas sin que estas estuvieran preparadas aún para alojarlas, y después de instalarlas en un aula de clases para la foto del recuerdo, eran desmanteladas y almacenadas, y hasta olvidadas por los directores de escuela, más preocupados por sacar el trabajo rutinario que por sacarle provecho a las nuevas herramientas que se les estaban proporcionando, un ejemplo entristecedor de este desperdicio de recursos lo constituyen las escuelas ubicadas en la zona de la Chontalpa del Estado de Tabasco, mismas que durante las inundaciones de 2007 tenían sus equipos de cómputo almacenados en bodegas a nivel de piso y no tuvieron tiempo de sacarlos, quedando los mismos bajo el agua e inservibles, sin siquiera haber sido sacados de sus empaques.
Estas situaciones se deben sobre todo a que por cumplir con una nueva disposición mal planificada los equipos de computo se entregan a gente que no les encuentra ninguna utilidad porque desconoce sus potencialidades y las considera innecesarias, o como un gasto excesivo al que la institución educativa con problemas presupuestarios añejos no puede hacer frente, y aunado a ello las reformas educativas que intentan incluir las tecnologías de información dentro de la educación obligatoria han sido de origen mal planificadas y peor implementadas, ya que si bien se contempla dotar a las escuelas de equipamiento de cómputo, no se prevé en ningún momento de dotar a las escuelas de una partida presupuestaria para cubrir los sueldos del personal que dará mantenimiento a los equipos de cómputo y que impartirá las clases a los educandos, insistiendo siempre en que no esta en posibilidades de autorizar nuevas plazas para este tipo de enseñanzas, algo por demás inverosímil, cuando el discurso oficial de las autoridades de mayor nivel a cargo de fijar las políticas educativas no se cansa de señalar la importancia de incluir este tipo de enseñanza dentro de la currícula educativa a todos los niveles.

El principal enemigo de los centros de cómputo es la obsolescencia y la falta de mantenimiento preventivo, en cuestiones de equipos de cómputo el mantenimiento correctivo generalmente implica que el equipo ya no cumplirá con las condiciones optimas de desempeño y que sus componentes fallaran en cualquier momento con el consecuente incremento de costos para la institución, por ello es vital que las escuelas aprendan a sacar el mayor provecho de los equipos desde el instante mismo en que les son otorgados, o adquiridos, ya que el peor enemigo de los equipos electrónicos es el polvo, y el polvo hace especial daño a los equipos almacenados en bodegas o bien sin utilizar; los equipos que permanecen mucho tiempo embodegados, aún cuando permanezcan en sus empaques originales no se encuentran tampoco a salvo, ya que los insectos hacen presa de ellos para utilizarlos como nidos, o peor aún para alimentarse con las piezas de goma y aislantes.
Un adecuado mantenimiento preventivo evita toda clase de costos a las instituciones propietarias de los equipos, principalmente porque mantener los equipos libres de polvo, no solo superficialmente, sino también en su interior prolonga la vida útil de los mismos y el desempeño, un equipo que presenta problemas de acumulación de polvo tendrá síntomas como sobrecalentamiento, apagados sorpresivos, lentitud, bloqueos, y perdida de funcionalidad de algunos componentes como teclado, mouse, unidades de disco, etc.
Las instituciones educativas necesitan cambiar el enfoque hacia los centros de cómputo, dejar de pensar que lo único que necesitan es un encargado que vigile a los usuarios aunque no sepa ni como encender los equipos, capacitar a su personal y dotarles de las herramientas y los tiempos necesarios para cumplir con la función de mantener en buen estados los equipos, darse cuenta que mantener en buen estado los centros de cómputo no es un gasto, si no a la larga constituye un ahorro y un notable beneficio para la comunidad escolar.
Los centros de cómputo ya no pueden seguir condenados a convertirse en cementerios de electrónicos, o deshuesaderos para proveer piezas de recambio a los equipos usados por la administración escolar, deben empezar ser valorados y cuidados como lo que son: herramientas para facilitar el aprendizaje y desarrollo de competencias para la vida. Las instituciones deben dejar de ver el área de centro de cómputos como el lugar ideal para poner a trabajar a los recomendados, y familiares; y comenzar a invertir en capital humano que permita sacarle el mayor partido a la inversión tecnológica existente, un centro de cómputo bien manejado puede convertirse sin lugar a dudas en una fuente de ingresos por capacitaciones, talleres, cursos y demás actividades académicas ofertadas a la comunidad, convertirse en autosustentable y dejar de ser una carga para la institución, para convertirse en un generador de bienestar para la institución y hasta en una fuente de orgullo para la comunidad escolar.
para que esto sea posible es necesario que los directivos y el mismo personal adscrito a los centros de cómputo tome consciencia de que puede contribuir de forma positiva al logro de las metas de la institución a la que pertenecen, que las áreas de cómputo ya no deben ser consideradas como apéndices de las instituciones, sino parte integral de las mismas, y corresponsable de la formación educativa transversal dentro de la institución.
Hay mucho trabajo que hacer, y si bien es cierto que las políticas educativas han carecido hasta hoy de un rumbo definido y a largo plazo caracterizado por errores más que por aciertos, los centros de cómputo dentro de las instituciones educativas ya son un estándar, y corresponde a las mismas tomar la batuta en este sentido y hacerlos productivos, el cambio empieza normalmente de abajo hacia arriba, no al contrario, el fracaso de las instituciones lo ha constituido el esperar que la solución les sea dictada desde arriba y mágicamente se les solucione todos los problemas, cuando en realidad la solución debe surgir desde abajo del sistema y terminar instaurándose como modelo de éxito ya probado, las soluciones desde arriba ya han probado estar condenadas al olvido, muestra de ello lo constituye el famoso y multipublicitado programa de Enciclomedia, el cual tuvo una efímera existencia de menos de 6 años, ahora son las instituciones en lo individual quienes deben tomar la rectoría de sus centros de cómputo y buscar la forma de hacerlos valer cada peso invertido en los mismos por el gobierno federal, buscando comprometer a la comunidad y a la larga hacerlos sustentables para las mismas, ningún padre en su sano juicio se negaría a aportar para dar impulso a un recurso que da beneficios tangibles a la educación de sus hijos, pero todos con total seguridad se negarán a apoyar la existencia de algo que ha demostrado ser inoperante, improductivo y ha constituido simplemente un gasto más para la institución.
Cambiemos el enfoque de los centros de cómputo y veremos que estos dejan de ser un lastre para convertirse en un motor impulsor de la formación integral de nuestro capital humano desde el nivel elemental hasta la educación superior.


jueves, 26 de agosto de 2010

Introducción a la computación.

Historia de las computadoras.
1.1.- Precursores de las computadoras.

Los instrumentos como el ábaco
que sirvan para realizar cálculos
matemáticos son considerados por
algunos como precursores de las
computadoras.
Cárdenas, Tabasco, México; 26 de agosto de 2010.- (actualizado el 27 de agosto de 2019) Muchos autores consideran el inicio de la computación desde la antigüedad, en fechas tan antiguas como los inicios de la propia humanidad. A continuación se enumeran algunas de los sucesos prehistóricos y de la antigüedad que se consideran como precedentes de la computación.

Los dedos y las piedras: los usaba el hombre primitivo para solucionar problemas sencillos de contabilidad como sumas y restas.

El ábaco: lo inventaron los babilonios y lo perfeccionaron los chinos y los japoneses; para tener un artefacto que simplificará los cálculos aritméticos.

Símbolos numéricos: los más empleados son los de base 10 de origen indo arábigo; se inventaron con el fin de presentar de modo gráfico y contextual las cantidades.

Libro de partida doble: inventado por Lucca Paccioli. Establece principios contables de manera científica.

Sin embargo, desde el punto de vista más apegado a la realidad y al concepto de computación (empleo de forma automatizadas para realizar cálculos numéricos), y posteriormente al concepto de informática (automatización del manejo de la información), quizá debamos situar los albores de la computación en algo más cercano como el siglo XVI al menos en lo tocante a la computación, ya que para el concepto de informática tenemos que esperar hasta el siglo XIX en el que se empieza realmente a almacenar la información en diferentes medios reutilizables.

Huesos de Napier: inventado por John Napier entre los años de 1538 y 1550, era un artefacto capaz de hacer operaciones matemáticas como sumas, restas, multiplicaciones, divisiones, raíces cuadradas y potenciaciones.

La pascalina: inventada por Blaise Pascal entre 1640 y 1642, constaba de un conjunto de ruedas dentadas interengranadas, que se usaban para sumar y restar mediante movimientos mecánicos; fue perfeccionada por Garfield Von Leibnitz en 1671, podía multiplicar y dividir.

Telar automático de tarjetas perforadas: inventado por Joseph Marie Jacquard en 1804, podía controlar mediante el uso de tarjetas perforadas los diseños de los tejidos.

La máquina de Babbage: a principios del siglo XIX inventó una máquina automática para hacer cálculos, que si bien nunca logro terminar, sus principios fundamentales sirvieron como base para el diseño de las primeras computadoras.

Álgebra de Boole: George Boole en 1854 inventó un sistema para representar proposiciones lógicas mediante el uso de símbolos matemáticos, mediante su uso es posible determinar si un enunciado es cierto o falso en un sentido lógico.

Máquina para censos basada en tarjetas perforadas: Herman Hollerith en 1880 – 1890 inventó una máquina que mediante el uso de tarjetas perforadas podía manejar gran cantidad de datos y procesarlos a gran velocidad, dicha máquina sirvió para completar el censo de población de USA a tiempo ya que de hacerlo de forma manual no se hubiese completado los cálculos a tiempo para preparar el siguiente censo.

Lógica de conmutación: Claude Shannon en 1938 aplicó los métodos del álgebra de booleana a la representación sistemática de complejas redes de conmutación.
El sistema Binario consta únicamente de dos valores 0 y 1 ello hace que los dispositivos que lo empleen sean sencillos de implementar, en estos gráficos podemos ver las equivalencias del sistema binario al sistema decimal


1.2.- Antecedentes históricos de las computadoras (1937 – 1951).
Z3 la primer computadora programable completamente automática, creada por Konrad Zuse en 1941.
La causa fundamental para tratar de desarrollar máquinas computadoras con tanta urgencia en la década de 1940 fue la segunda guerra mundial. En un principio salvo la Z3 que usaba lenguaje binario, la computación estaba basada en el sistema decimal. y programarlas implicaba soldar cables en diferente configuraciones y manejar el sistema decimal, (La Z3 se programaba mediante tarjetas perforadas y usaba sistema binario). Más adelante el sistema binario se impuso al sistema decimal gracias a que permitia simplificar los circuitos con los que se construian las computadoras, reducir costos y dimensiones.

En esta época, solo había equipos de cómputo en las universidades e instalaciones militares, estas se usaban para calcular las tablas de trayectoria para equipos de vuelo y equipos de tiro del ejército.

En 1951 se puso a la venta la primera computadora con fines comerciales (UNIVAC 1).

ABC: Universidad de Harvard, Atanasoft y Berry, querían mejorar las lentas e inexactas máquinas calculadoras de la época (1937 – 1942); operaba con circuitos lógicos y álgebra binaria, era electrónica y usaba bulbos de vació para sus funciones aritmético-lógicas (encendido y apagado).

MARK 1: Universidad de Harvard, Howard H. Airen, estudiantes de posgrado e ingenieros de la IBM (1937-1944), media 15.5 x 2.4 metros de alto era electromecánica y se programaba por medio de cintas perforadas, realizaba 30 sumas por segundo; fue la primera computadora funcional.

ENIAC: Universidad de Pennsylvania, Mauchly y Ecckert (1945 – 1951) ideada para resolver problemas de balística realizaba 5000 sumas por segundo, pesaba 30 toneladas y media 6 x 12 metros; tenía 18,000 bulbos de vacío, las instrucciones se cableaban desde fuera de la computadora por medio de tubos e interruptores.

EDVAC: John Von Neuman, Mauchly y Eckert (1945 – 1951) desarrollan una máquina capaz de almacenar instrucciones y datos con los que trabajaba. Poseía programas almacenados, tenía memoria de 8,000 palabras de 32 bits y trabajaba con sistema binario.


1.3.- Primera generación de computadoras (1951-1958).

La UNIVAC 1, de Mauchly y Eckert fue
la primer computadora  con fines no
militares fabricada en Estado Unidos
de América
UNIVAC 1: Mauchly y Eckert Computer Corp., fue la primera computadora funcional empleada para fines comerciales y fabricada por una empresa privada (1951).

Características de la primera generación:
1. Bulbos de vacío.
2. Tarjetas perforadas.
3. Almacenamiento en tambor interno.
4. Programación en lenguaje máquina y ensamblador.
5. Alto consumo de energía.
6. Aplicaciones limitadas.
7. Uso de cintas magnéticas.
8. Dimensiones colosales.
9. Fabricación industrial.
10. Acceso secuencial.
11. Poca capacidad de almacenamiento y proceso.
12. Altos costos de compra.
13. Propósitos específicos.
14. Falta de almacenamiento interno.



1.4.- Segunda generación de computadoras (1958-1964).

La serie 700 de la IBM marco el
comienzo de la segunda generación
SERIE 700: IBM Corp. Con esta línea de computadoras se inicio la segunda generación de computadoras, que implementaban el uso de transistores (Bell Labs, 1947) los cuales ofrecian un menor tamaño, consumo de energía, tensión electrica y calentamiento a la vez que una mayor capacidad y duración.




Características de la segunda generación:
1. Transistores.
2. Mayor velocidad de procesamiento.
3. Memoria de núcleos de ferrita.
4. Almacenamiento secundario.
5. Mejores dispositivos de E/S.
6. Lenguajes de alto nivel (Fortran).
7. Discos magnéticos.
8. Acceso directo.
9. Hardware modular.
10. Recuperación de información.
11. Proceso por lotes.
12. Sistemas operativos sencillos.
13. Propósitos generales.

Algunas de las series de computadoras que salieron a la venta en esa época son: IBM serie 700, IBM serie 1700, IBM Strech, SR serie 1200, IBM serie 1400, Remintong Rand LARC, IBM serie 7000, IBM Norc.


1.5.- Tercera generación de computadoras (1964-1971).

La serie 360 de la IBM marcó el
inicio de la tercera generación de
computadoras
SERIE 360: IBM Corp. Esta serie dio inicio a la tercera generación de computadoras haciendo uso de circuitos integrados. 
Los sistemas de cómputo comenzaron a reducir de forma drástica su tamaño, y a utilizar mecanismos de entrada y despliegue de información más amigables con el usuario, aunque la facilidad de uso aún estaba muy lejos de lograrse, trabajar con una computadora ya no parecía tanto una actividad de película de ciencia ficción, sino algo un poco más rutinario, los lugares equipados con equipos de cómputo comenzaron a verse mucho más parecidos a oficinas normales que a laboratorios secretos.


Características de la tercera generación de computadoras:
1. Circuitos integrados.
2. Compatibilidad con equipo mayor.
3. vides pantalla.
4. Teleproceso.
5. Multiprogramación.
6. Mayor capacidad de almacenamiento.
7. Uso doméstico.
8. Mejores sistemas operativos.
9. Mayor poder de cómputo.
10. Impresoras.
11. Lenguajes fáciles y comprensibles (BASIC).
12. Mejores equipos de E/S.
Algunos equipos que salieron a la venta durante este periodo son: IBM serie 360, Honeywell 200, CDC 6600, NCR, UNIVAC 1100, RCA Spectra, Burroughs.


1.6.- Cuarta generación de computadoras (1971-1982).

La serie 370 inicia el verdadero salto
tecnológico que nos ha llevado al estadio
de desarrollo actual
Inicia con el lanzamiento de la serie 370 de la IBM Corp., se introducen los circuitos integrados.
Paralelamente a la serie  370 de IBM DEC Digital Equipment Corp fabrica la PDP 11, primer computadora con bus de comunicación bidireccional asíncrono, que permitía mandar instrucciones entre los componentes del equipo sin pasar por el procesador, lo cual representó un salto tecnológico, para la época.
En este periodo también se da el cambio hacia la computación de 32 bits que dominó el mercado  hasta el año 2003, en el cual se introdujo la arquitectura de 64 bits, aunque es la época de la minicomputadoras y las computadoras personales empieza a vislumbrarse en el mapa pero sólo para los privilegiados, el cómputo esta básicamente al alcance de las universidades y las empresas, los costos de los equipos siguen siendo prohibitivos como para permitir contar con un mercado masivo.

Características de la cuarta generación:
1. Microcircuitos integrados.
2. Terminales inteligentes.
3. Graficadores.
4. Lenguajes de alto nivel (LISP, SNOBOL, COBOL, Pascal).
5. Memoria de semiconductores.
6. Dispositivos de impresión de alta resolución.
7. Almacenamiento masivo de datos.
8. Inteligencia artificial.
9. Computadoras personales.
10. Refinados dispositivos de E/S.
11. Pantalla a color.
12. Discos duros.
13. Software de uso general.
14. Sintetizadores de voz.
15. Microelectrónica.
16. Mayor fiabilidad.
17. Tecnología digital.
18. Redes de computadoras.
19. Grandes bases de datos.
Las computadoras personales hacen su aparición en esta etapa y aunque en principio seguían siendo costosas, y no estaban al alcance de cualquiera, ya estaban haciendo presencia en empresas medianas y pequeñas y acercándose a algunos hogares privilegiados.
Otro punto que cabe destacar aquí es que las interfaces de usuario aún no eran intuitivas y mucho menos visuales, imperaba la línea de comandos como única vía de entenderse con las computadoras, la mayoría de los monitores solo eran capaces de desplegar datos en una malla de 25 x 80, que era el estándar dominante de la época. Aunque también había variantes de "alta resolución" capaces de desplegar caracteres en una malla de 40x80, hablar de gráficos en esta época era hablar de equipos demasiado caros para ser adquiridos por alguien que no se dedicase al mercado de diseño.

1.7.- Quinta generación de computadoras (1983-2003).
Esta generación representa más que todo avance tecnológico.
Avances de la quinta generación de computadoras:
1. Sistemas operativos orientados al usuario.
2. Lenguajes amistosos.
3. Software inteligente.
4. Inteligencia artificial.
5. Tecnología digital y láser.
6. Auto programación.
7. Diodos de túnel.
8. Diodos de láser.
9. Fibras ópticas.
10. Vídeo conferencias.
11. Correo electrónico.
12. CD-ROM.
13. Velocidades de nano segundos.
14. Redes inalámbricas.
15. Internet.
16. Realidad virtual.
17. Costos reducidos.
Con esta quinta generación se termina el consenso de los profesionales de cómputo en la definición de las generaciones, mientras algunos insisten que esta es la última generación ya que no se han presentado cambios radicales otros insisten en que los cambios radicales ya no se darán en el plano de la arquitectura física de los equipos de cómputo, si no que serán cambios a nivel del software y la conectividad los que marcaran la llegada de las nuevas generaciones de computadoras. Es a finales de esta quinta generación cuando gracias a AMD se da el paso de la arquitectura de 32 bits capaz de direccionar hasta 4 GB de RAM, a la arquitectura de 64 bits, capaz de direccionar hasta 16 exabites de memoria, con este cambio da inicio la siguiente generación.
1.7.- Sexta generación de computadoras (2004-2008).
La sexta generación de computadoras inicia su aparición gracias a la compañía AMD, misma que presenta el primer procesador de doble núcleo real existente en el mercado, antes del procesador AMD Athlon X2, tanto Apple como Intel habían presentado procesadores que emulaban ser de doble núcleo, pero lo hacían uniendo dos procesadores de núcleo sencillo a nivel de sus puentes norte y la memoria e implementado una técnica llamada multihilos. AMD es la primera en lograr un diseño de doble núcleo funcional y eficiente que permitirá a las aplicaciones dar un salto en cuanto a las características ofertadas a los usuarios de equipos de cómputo y marcar una revolución en cuanto a desempeño motivada por la aparición de nuevos procesadores de doble núcleo de distintas marcas como Intel y Apple. La nueva arquitectura de 64 bits permite direccionar 16 exabytes de RAM, pero por desgracia el software de sistemas operativos se queda corto en aprovechar estas ventajas durante mucho tiempo, y se llega incluso a imponer límites artificiales a la cantidad de memoria que los equipos pueden tener, con la llegada de esta arquitectura, las computadoras empezaron a evolucionar en el terreno del software, más que en el aspecto del hardware, si bien muchos autores determinan que existen generaciones posteriores, el consenso llega hasta este punto y a partir de aquí las opiniones de los expertos no son consensuadas, y mucho consideran que con cada salida de un nuevo modelo de procesador se debe considerar una nueva generación otros concluyen que los cambios son insignificantes más allá de la velocidad de proceso.
1.- Menor precio.
2.- Mayor potencia de cómputo.
3.- Procesadores de dos o más núcleos.
4.- Dispositivos más poderosos y de menor tamaño.
5.- Miniaturización.
6.- Interfaces táctiles.
7.- Sistemas operativos orientados a interfaces táctiles y visuales.
8.- Reconocimiento de voz.
9.- Dispositivos de entrada sofisticados.
10.- Interfaces universales para transferencia de datos e interconexión.
11.- Capacidades inalámbricas embebidas.
12.- Computación móvil.
1.8.- Séptima generación (2009-****).
La séptima generación no se especifica como de computadoras, por el hecho de en el año 2009 se liberan al mercado los denominados teléfonos inteligentes realmente funcionales, los cuales ponen lo que denominamos computación personal fuera del escritorio, y la ubican en todas partes, tal como se había predicho en muchos libros de ciencia ficción en los años 1950's y 1960's, la computación ubicua se hizo una realidad de la mano de la expansión de la red conocida como Internet, el cómputo se migró a las calles y estos nuevos dispositivos dieron paso a las conocidas tabletas, al darse la sinergía de los que hoy se conoce como Tecnologías de Información y Comunicación, hubo un cambio radical en cuanto a la forma en que conocíamos la computación personal, atrás quedaron esas limitaciones de tener que tener un equipo de cómputo completo o bien una conexión telefónica con un modem para poder acceder a Internet o realizar nuestro trabajo, los nuevos dispositivos de cómputo eran una combinación de terminal telefónica, modem de Internet y equipo de cómputo en un solo dispositivo. Todas las características de la sexta generación se siguieron aplicando a esta nueva gama de dispositivos, con la ventaja de que su tamaño es menor y sus prestaciones de conectividad son superiores, a las de los equipos de cómputo tradicionales.
Entre las características destacables de esta nueva generación de dispositivos de cómputo podemos destacar:
1. Conectividad inalámbrica.
2. Interfaces táctiles.
3. Almacenamiento en la nube transparente para el usuario.
4. Seguridad integrada a inicio sesión en la red para la mayoría de los servicios (recomendado).
5. Amplia disponibilidad de aplicaciones.
6. Compatibilidad casi total para intercambiar información entre dispositivos.
7. Mayor autonomía.
8. Dependencia de conectividad a Internet para funcionalidad completa.