Escriba lo que desea buscar en este blog

domingo, 15 de abril de 2018

Cómo Aristóteles Creó El Ordenador

Cómo Aristóteles Creó El Ordenador

A menudo se cuenta la historia de los ordenadores como una historia de objetos, desde el ábaco hasta la Máquina Diferencial, pasando por las máquinas descodificadoras de la Segunda Guerra Mundial.
De hecho, se puede entender mejor como una historia sobre las ideas, principalmente ideas que emergieron de la lógica matemática, una disciplina oscura y de culto que se desarrolló por primera vez en el siglo XIX. La lógica matemática se empezó por los filósofos – matemáticos. Los más destacables fueron George Boole y Gottlob Frege quienes, a la vez, estaban inspirados por el sueño de Leibniz de un “lenguaje conceptual” universal y por el antiguo sistema lógico de Aristóteles.
Trabajos De Leibniz

Trabajos De Leibniz
Inicialmente se consideró a la lógica matemática como una materia abstracta, sin esperanza que no tenía aplicaciones concebibles. Como un Ingeniero Informático comenta: “Si, en 1901, se hubiese hecho una encuesta para saber qué ciencia y que rama sería la menos fructífera durante el siglo que se estaba empezando, la elección mayoritaria hubiese sido la lógica matemática“. Cuando lo que pasó realmente, fue que se pusieron sobre la mesa los fundamentos para un campo que tendría mucho más impacto en el mundo moderno que cualquier otro.


La evolución de la informática desde la lógica matemática culminó en los años 1930 con dos papers emblemáticos:
1. “1. A Symbolic Analysis of Switching and Relay Circuits” de Claude Shannon
2. “2. On Computable Numbers, With an Application to the Entscheidungsproblem.” de Alan Turing
Shannon y Turing son dos figuras fundamentales en la historia de la informática, eso es obvio, demostrable e irrebatible. Pero lo que solemos obviar es la importancia que los filósofos y lógicos que los precedieron, aportaron a esta ciencia.

Claude Shannon

Alan Turing
Una buena historia de la informática describe el paper de Shannon como “posiblemente la más importante y notoria tesis del siglo“. Shannon lo escribió cuando era estudiante de Ingeniería Eléctrica en el MIT. Su tutor, Vannevar Bush, construyó un prototipo de ordenador llamado el Analizador Diferencial que era capaz de calcular rápidamente ecuaciones diferenciales.

Vannevar Bush y el Analizador Diferencial
El dispositivo era mayormente mecánico, con subsistemas controlados por relés eléctricos, que se organizaban en base a las necesidades del momento ya que no había aún ninguna teoría sobre el diseño de circuitos. De hecho, el tema de la tesis de Shannon nació en el momento en que Bush le recomendó probar de descubrir una teoría como esa.
El paper de Shannon es en muchos modos es el típico paper de Ingeniería Eléctrica, lleno de ecuaciones y de diagramas de circuitos eléctricos. Lo que ya no es tan usual es que la referencia principal fue un trabajo de 90 años atrás sobre filosofía matemática, Las Leyes del Pensamiento de George Boole.

Las Leyes Del Pensamiento, de George Boole
Hoy en día, el nombre de Boole es bien conocido por tod@s l@s Ingenier@s Informátic@s (muchos de los lenguajes de programación tienen un tipo de datos básico -primitivo- llamado Booleano); pero en 1938 raramente se leía su obra fuera de los departamentos de filosofía. El mismo Shannon se encontró con el trabajo de Boole en una clase de filosofía. Más tarde comentó: “Tan sólo ocurrió que nadie era familiar con los dos campos a la vez“.
Normalmente se describe a Boole como matemático, pero él se veía a sí mismo como un filósofo, siguiendo los pasos de Aristóteles. “Las Leyes Del Pensamiento” empieza con una descripción de sus metas, para investigar las leyes fundamentales del funcionamiento de la menta humana:
“El diseño del tratado que sigue es investigar las leyes fundamentales de aquellas operaciones de la mente mediante las cuales se lleva a cabo el razonamiento; darles expresión en el lenguaje simbólico del Cálculo, y establecer la ciencia de la Lógica… y, finalmente, recolectar… algunos de los indicios sobre la naturaleza y la constitución de la mente humana“
Luego rinde tributo a Aristóteles, el inventor de la lógica y la influencia principal de su propio trabajo:
“De un modo antiguo y académico, la materia de la Lógica se debe casi única y exclusivamente a Aristóteles. Se presentó en la antigua Grecia durante las disquisiciones del Organon, en parte técnicas y en parte metafísicas; que han seguido hasta nuestros días“

El Organon
Intentar mejorar el trabajo lógico de Aristóteles era un movimiento intelectual temerario. La Lógica Aristotétila se presentó el El Organon, comentó, un libro de 6 partes, que ocupó el centro del canon de la educación durante más de 2000 años. Existía la férrea convicción que todo lo que había escrito Aristóteles era todo lo que se podía decir sobre el tema. El filósofo Immanuel Kant afirmó que, desde Aristóteles, la lógica había sido “incapaz de dar un sólo paso adelante, por lo que, en apariencia, estaba acaba y completa“.
La observación central de Aristóteles era que los argumentos eran válidos o no en base a su estructura lógica, independientemente de las palabras no – lógicas que pudiesen incluir. El esquema más famoso que discutió fue el silogismo:
⦁ Todos los hombres son mortales.
⦁ Sócrates es un hombre.
⦁ Entonces, Sócrates es mortal.
Puedes reemplazar “Sócrates” con cualquier otro sujeto, y “mortal” con cualquier otro predicado y el argumento continúa siendo válido. La validez del argumento viene determinada solamente por la estructura lógica. Las palabras lógicas: ‘todo’, ‘es’, ‘son’ y ‘entonces’; hacen todo el trabajo.
Aristóteles también definió un conjunto de axiomas básicos que derivaron en el resto de su sistema lógico:
⦁ Un objeto es lo que es (Ley de la Identidad)
⦁ Ninguna afirmación puede ser cierta y falsa a la vez (Ley de la No Contradicción)
⦁ Cada afirmación es o cierta o falsa (Ley de la Exclusión)
Estos axiomas no intentaban describir cómo piensa la gente (eso es del reino de la psicología) pero sí como debería pensar una persona ideal y perfectamente racional.
El método axiomático de Aristóteles influenció un libro aún más famoso, “Los Elementos” de Euclides, del que se estima que es el segundo (siguiendo a la Biblia) en ediciones impresas.


Un Fragmento de Los Elementos de Euclides
Ostentiblemente sobre geometría, Los Elementos se convirtió en un libro de texto estándar para la enseñanza del razonamiento deductivo riguroso. (Abraham Lincoln dijo una vez que aprendió a argumentar legalmente estudiando a Euclides). El el sistema euclídeo, las ideas geométricas se representaban como diagramas espaciales.


Edición de Oliver Byrnes de 1847 de los Elementos de Euclides.
La práctica de la geometría continuó siendo así hasta René Descartes, en los 1630s, cuando demostró que la geometría se podía expresar mediante fórmulas. Su Discurso del Método fue el primer texto matemático de occidente que popularizó lo que ahora denominamos como notación algebraica: “x, y, z para variables; a, b, c para valores conocidos, etc..”
El álgebra de Descartes permitió a los matemáticos ir más allá de las intuiciones espaciales para manipular símbolos usando reglas de fórmulas definidas de un modo muy preciso. Esto cambió el modo dominante de las matemáticas; de los diagramas a las fórmulas, conduciendo, entre otras cosas, el desarrollo del cálculo, inventado más o menos 30 años antes de Descartes por Isaac Newton y Gottfried Leibniz.
La meta de Boole en respecto a la lógica Aristotélica era lo que Descartes había hecho para la geometría Euclídea: liberarla de los límites de la intuición humana dándole un notación algebraica precisa. Para poner un ejemplo simple, cuando Aristóteles escribió:
⦁ Todos los hombres son mortales
Boole reemplazó ‘hombres’ y ‘mortales’ con variables y las palabras logicas ‘todos’ y ‘son’ con operadores aritméticos:
⦁ x = x * y
Lo que se puede interpretar como: “Todo lo que hay en el conjunto x también está en el conjunto y”
Las Leyes del Pensamiento crearon un nuevo campo de educación (la lógica matemática) que en los años venideros se convertiría en una de las áreas de investigación más activas para matemátic@s y filósof@s. Bertrand Russell describió a Las Leyes del Pensamiento como “el trabajo en que se descubrieron las matemáticas puras“
La visión de Shannon fue que el sistema de Boole se podía mapear directamente en los circuitos eléctricos. En esos tiempos, los circuitos eléctricos no tenían ninguna teoría sistemática que gobernase su diseño. Shannon se dio cuenta que la teoría correcta seria “exactamente análoga al cálculo de proposiciones usado en el estudio simbólico de la lógica“. Demostró la correspondencia entre los circuitos eléctricos y los operadores Booleanos en un simple gráfico


Esta correspondencia permitió a l@s Ingenier@s Informátic@s importar décadas de trabajo en lógica y matemáticas y sus subsiguientes lógicos. En la segunda parte de su paper, Shannon demostró cómo la lógica Booleana se podía usar para un circuito que sumase dos dígitos binarios:


El ‘Sumador’ de Shannon
Poniendo en serie estos circuitos, se podían construir operaciones aritméticas complejas. Fueron los bloques básicos de lo que ahora conocemos como Unidades Aritméticas Lógicas (ALUs), un componente clave de las computadoras modernas y de los procesadores.


ALU
Otro modo de caracterizar el logro de Shannon es que fue el primero en distinguir entre la capa lógica y la capa física de los ordenadores. Esta distinción es tan fundamental en la informática que puede parecer sorprendente a los lectores modernos cómo de innovadora fue en su momento. Un recordatorio a la máxima: “la filosofía de un siglo es el sentido común del siguiente”
Desde la aparición del paper de Shannon, un gran número de progresos se ha hecho en la capa física de los ordenadores, incluyendo la invención del transistor en 1947, por William Shockley y sus colegas en Bell Labs. Los transistores son versiones hormonadas de los relés de Shannon (el mejor modo de codificar las operaciones Booleanas).


El Transistor de 1947
En los siguientes 70 años, la industria de los semiconductores fue reduciendo los transistores a piezas cada vez. más pequeñas. Para hacernos un poco a la idea, un iPhone de 2016 tiene unos 3.3 Billones de transistores, cada uno de ellos, cambia igual que los diagramas de Shannon.
Mientras que Shannon demostraba cómo mapear la lógica en el mundo físico, Turing demostró como diseñar ordenadores en el lenguaje de la lógica matemática. Cuando en 1936, Turing escribió en su paper, estaba intentando solucionar “el problema de decisión” identificado en primer término por el matemático David Hilbert, quien preguntó si podía haber un algoritmo que fuese capaz de determinar si una afirmación matemática arbitraria era cierta o falsa.
En contraste con el paper de Shannon, el de Turing era muy técnico. Su relevancia histórica no reside en su respuesta al problema de decisión, sino en la plantilla para el diseño de los ordenadores. Turing trabajaba a la usanza de Leibniz, el gigante filosófico que desarrolló el cálculo en paralelo y a la vez que Newton, sin conocerse entre ellos. Entre todas las grandes contribuciones de Leibniz al pensamiento moderno, una de las más intrigantes era la idea de un nuevo lenguaje llamado la “característica universal“, que imaginaba, podía representar todo el conocimiento matemático y científico. Inspirado por el filósofo religioso del siglo XIII, Ramon Llull, Leibniz postuló que el lenguaje podría ser ideográfico cómo los jeroglíficos Egipicios, excepto algunos caracteres que podrían corresponder a conceptos “atómicos” de las matemáticas y de las ciencias. Argumentó que este lenguaje podía ofrecer a la humanidad un instrumento que podría incrementar la razón humana “más allá de los instrumento ópticos” cómo el microscopio y el telescopio.
Ramon Llull

Ramon Llull
Leibniz también imaginó una máquina que podía procesar el lenguaje:
“Si tienen que aflorar controversias, no habrá ya más disputas entre dos filósofos que las que hay entre dos contables. Será suficiente con que cada uno coja su lápiz y diga: Calculemos“. Leibniz no tuvo la oportunidad de desarrollar su lenguaje universal o su máquina (aunque sí que inventó una calculadora simple, la máquina de Leibniz o Stepped Recknoner).

Stepped Recknoner
Stepped Recknoner
El primer intento creíble de hacer una realidad el sueño de Leibniz fue en 1879, cuando el filósofo alemán Gottlob Frege; publicó su tratado lógico Begriffsschrift. Inspirado por el intento de Boole de mejorar la lógica Aristotélica, Frege desarrolló un sistema lógico mucho más avanzado. La lógica que se enseña hoy en día en las clases de filosofía y de informática (lógica de primer orden o lógica de predicado) es tan sólo una pequeña modificación del sistema de Frege.
Se considera a Frege como uno de los filósofos más importantes del siglo XIX. Entre otras cosas, se le atribuye la catalización de lo que Richard Rorty (filósofo) llamó “el cambio lingüístico” en filosofía. La filosofía estaba obsesionada sobre las cuestiones del conocimiento, la filosofía después de Frege se obsesionó con cuestiones del lenguaje. Sus discípulos incluían a dos de los filósofos más importantes del siglo XX: Bertrand Russell y Ludwig Wittgenstein.
La mayor innovación de la lógica de Frege es que se representa de modo más preciso con la estructura del lenguaje ordinario. Entre otras cosas, Frege fue el primero en usar cuantificadores (“para todo”, “existe”) y a separar los sujetos de los predicados. También fue el primero en desarrollar lo que hoy son conceptos fundamentales de la informática como las funciones recursivas y las variables con ámbito. El lenguaje formal de Frege (lo que él llamo su “concept-script”) está hecho de símbolos sin significados que se manipulan mediante reglas bien definidas. El lenguaje tan sólo tiene significado mediante la interpretación, que se especifica de un modo separado (esta distinción acabaría siendo sintaxis contra semántica). Esto convirtió a la lógica en lo que los eminentes informáticos Allan Newell y Herbert Simon han llamado “el juego del símbolo”, “jugado con trozos sin significado de acuerdo con reglas puramente sintácticas”.


Frege
Como Bertrand Russell dijo: “Las matemáticas se definirían como la materia en que nunca sabemos de lo que estamos hablando, o si lo que decimos es cierto“.Una consecuencia inesperada del trabajo de Frege fue el descubrimiento de las debilidades de los fundamentos de las matemáticas. Por ejemplo, Los Elementos de Euclides (considerado el patrón oro del rigor lógico durante miles de años) demostró estar plagado de errores lógicos. Dado que Eúclides utilizaba palabras ordinarias como ‘línea’ y ‘punto’; él (y siglos de lectores) se engañaron a sí mismos haciendo asunciones sobre frases que contenían esas palabras. Para dar un ejemplo fácil, en su uso ordinario, la palabra ‘línea’ implica que dados tres puntos que pertenecen a una línea, uno de los 3, DEBE estar necesariamente entre los otros dos. Pero cuando definimos ‘línea’ mediante lógica formal, nos damos cuenta que ‘el estar en el medio’ también debe ser definido; una cosa que Euclides obvió. La lógica formal hace que huecos así sean fáciles de ver.
Esta noticia creó una crisis en el fundamento de las matemáticas. Si Los Elemetos (la Biblia de las matemáticas) contenía errores lógicos, ¿Qué otros campos de las matemáticas también presentaban errores? ¿Qué pasaba con aquellas ciencias construidas sobre las matemáticas, cómo la física? Las buenas noticias fueron que los mismos métodos que se usaron para descubrir estos errores, fueron los que se usaron para corregirlos. Los matemáticos empezaron a reconstruir los fundamentos de las matemáticas de abajo a arriba.
En 1889, Giuseppe Peano desarrolló axiomas para la aritmética y, en 1899, David Hilbert hizo lo propio con la geometría. Hilbert también destacó un programa para formalizar el resto de las matemáticas, con requerimientos específicos que siempre deberían verse satisfechos:
⦁ Complitud: debe haber una prueba que todas las afirmaciones matemáticas ciertas se puedan demostrar mediante el sistema formal.
⦁ Decidibilidad: Tiene que existir un algoritmo para decidir la certeza o falsedad de cualquier afirmación matemática. Este es el problema de decisión o Entscheidungsproblem referenciado en el trabajo de Turing.


David Hilbert
Reconstruir las matemáticas de modo que satisfacieran estos requerimientos se conoció como el programa de Hilbert. Hasta los 1930s fue el foco de un grupo de lógicos que incluía al mismo Hilbert, Russell, Kurt Gödel, John Von Neumann, Alonzo Church y, por supuesto a Alan Turing.
El programa de Hilbert atacaba 2 frentes.
En el primero, los lógicos creaban sistemas lógicos que intentaban demostrar si los requerimientos de Hilbert eran satisfacibles o no.
En el segundo frente, los matemáticos utilizaban los conceptos lógicos para reconstruir las matemáticas clásicas. Por ejemplo, el sistema de Peano para la aritmética empieza con una función simple llamada la función sucesor que incrementa el número dado en uno. Utiliza la función sucesor de modo recursivo para definir la suma, utiliza la suma recursivamente para definir la multiplicación, y sigue, hasta que todas las operaciones de la teoría de números se ha definido. Luego usa estas definiciones, con la lógica formal, para demostrar teoremas sobre la aritmética.


La Música de Los Axiomas de Peano
El historiador Thomas Kuhn observó que “en ciencia, la novedad tan sólo emerge con la dificultad“. La lógica en la era del programa de Hilbert era un proceso tumultuoso de creación y de destrucción. Un lógico podía construir y elaborar un sistema y otro echarlo al suelo. El arma predilecta de destrucción era la construcción de autoreferencias, afirmaciones paradójicas que demostraban que los axiomas de los que se derivaban eran inconsistentes. Una forma simple de “la paradoja del mentiroso” es la frase: Esta Frase Es Falsa. Si es cierta entonces es falsa y, si es falsa entonces es cierta; conduciéndonos así a un torbellino infinito de auto contradicción.
Russell hizo el primer uso notable de la paradoja del mentiroso en la lógica matemática. Demostró que el sistema de Frege permitía derivar conjuntos que se auto contradecían:
“Sea R el conjunto de conjuntos que no son miembros de sí mismos. Si R no es miembro de sí mismo, entonces su definición indica que debe contenerse a sí mismo, y si R se contiene a sí mismo entonces contradice su propia definición cómo conjunto de todos los conjuntos que no pertenecen a sí mismos“
Esto se convirtió en la paradoja de Russell y fue un serio golpe en los logros de Frege. Frege, en shock por este descubrimiento contestó a Russell: “Su descubrimiento de la contradicción me ha causado una gran sorpresa y, casi diría, consternación ya que ha hecho temblar la base sobre la que intentaba construir mi aritmética“

Bertrand Russell
Russell y su colega Alfred North Whitehead pusieron el intento más abicioso de completar el programa de Hilbert con la publicación en 3 volúmenes de Principia Matemática entre 1910 y 1913. El método de Principia era tan detallado que necesitó de más de 300 páginas para demostrar que 1+1=2. Russell y Whitehead intentaron resolver la paradoja de Frege introduciendo lo que llamaron la teoría de tipos. La idea residía en partir los lenguajes lógicos en múltiples niveles o tipos. Cada nivel podía hacer referencia a los niveles inferiores, pero no a los niveles superiores. Esto resolvía paradojas auto referenciales, prohibiendo la auto referencia. No fue una solución muy popular entre los lógicos, pero influenció a la informática, la mayoría de los lenguajes modernos tienen características inspiradas por la teoría de tipos.
La primera explosión fue en 1931, cuando Gödel publicó su, ahora famoso, teorema de la incomplitud, que demostraba que cualquier sistema lógico consistente lo suficientemente poderoso para acompañar a la aritmética debía contener afirmaciones que son ciertas pero que no puede demostrarse que lo son.
El último toque apareció cuando Turing y Alonzo Church probaron independientemente que no podía existir algoritmo alguno que fuese capaz de determinar si una afirmación era cierta o falsa. Church lo hizo inventando un sistema totalmente independiente llamado cálculo lambda, que más tarde inspiró lenguajes de programación como LISP. La respuesta al problema de la decisión era negativa.
La visión clave de Turing apareció en la primera sección de su famoso paper de 1936: “On Computable Numbers, With an Application to the Entscheidungsproblem“. Para poder formular de modo riguroso el problema de decisión (Entscheidungsproblem), Turing creó un modelo matemático de lo que significa ser un ordenador (hoy en día, las máquinas que encajan en este modelo se les llama “máquinas universales de Turing“).


Máquina Universal de Turing
Como lo describe el lógico Martin Davis: “Turing sabía que un algoritmo se describe típicamente por una lista de reglas que una persona puede seguir de modo preciso y mecánico, como una receta de libro de cocina. Era capaz de demostrar que esa persona podía estar limitada a unas pocas y extremadamente básicas acciones sin cambiar el resultado final de la computación. […] Luego, demostrando que ninguna máquina que llevase a cabo tan sólo esas acciones básicas podía determinar si o no, una conclusión que sigue las premisas de Frege, fue capaz de concluir que no existía algoritmo alguno para el problema de la decisión. […] Como subproducto, encontró un modelo matemático para una máquina de computación multiuso“
Lo siguiente que hizo Turing fue demostrar cómo un programa podía almacenarse dentro de un ordenador junto con los datos con los que opera. En el vocabulario de hoy en día, diríamos que inventó la arquitectura de los programas almacenados que residen bajo la mayoría de los ordenadores modernos:
“Antes de Turing, la suposición general era que el lidiar con esas máquinas de 3 categorías (máquina, programa y datos) pasaba por separarlas enteramente en 3 entidades. La máquina era el objeto físico; hoy es el hardware. El programa era el plan para llevar a cabo una computación, ya sean tarjetas perforadas o cables en enchufes. Finalmente los datos eran inputs numéricos. La máquina universal de Turing demostró que la distinción de esas 3 identidades era pura ilusión“


Máquina de Turing Física
Fue la primera demostración rigurosa que cualquier lógica computacional que pudiese ser codificada en hardware también se podía codificar en software. La arquitectura que describió Turing, más tarde se llamó “La Arquitectura de Von Neumann“; aunque muchos historiadores modernos están de acuerdo con que era de Turing, del mismo modo que lo reconoció el mismo Von Neumann.
Aunque, a un nivel técnico, el programa de Hilbert fue un fallo, los esfuerzos que se hicieron durante su desarrollo demostraron que grandes porciones de las matemáticas podían construirse a partir de la lógica. Y después de las visiones de Shannon y Turing (demostrando las conexiones entre la electrónica, la lógica y la computación) fue posible exportar esa nueva maquinaria conceptual al diseño de ordenadores. Durante la Segunda Guerra Mundial, todo este trabajo teórico se puso en práctica, cuando los laboratorios de los gobiernos reclutaron un gran número de lógicos de élite.
Von Neumann se unió al proyecto de la bomba atómica en Los Alamos, donde trabajó en el diseño de ordenadores dando soporte a la investigación de l@s físic@s. En 1945 escribió la especificación del EDVAC -Electronic Discrete Variable Automatic Computer- (el primer programa almacenado y basado en lógica), lo que se considera el origen definitivo de la guía para el desarrollo del diseño de ordenadores.


EDVAC (a la derecha), Von Neumann (a la izquierda)
Turing se unió a una unidad secreta en Betchey Park, al noroeste de Londres, donde ayudó a diseñar computadoras especializadas en romper los códigos Alemanes. Su mayor contribución al diseño práctico de ordenadores fue la especificación del ACE (Automatic Computing Engine)


Turing y ACE
Al ser las primeras computadoras basadas en lógica booleana y en arquitecturas de programas almacenados, el ACE y el EDVAC eran similares de muchos sentidos. Pero también presentaban diferencias interesantes, algunas de las cuales han avivado muchos de los debates modernos en el diseño de computadores.

Von Neuman pensaba que la programación de las computadoras sería un trabajo tedioso, clerical. Turing, en contraste, afirmó que la programación de ordenadores “Sería muy fascinante. No hay peligro alguno de convertirse en esclavos para muchos procesos que son mecánicos y que los puede hacer una máquina“.

Desde los años 1940s, la programación de ordenadores se ha ido sofisticando más y más. Una cosa que no ha cambiado es que aún es, básicamente (con algunas excepciones) que l@s programdor@s especifiquen las reglas que los ordenadores deben seguir. En términos filosóficos, diríamos que la programación de ordenadores ha seguido la tradición de la lógica deductiva, la rama de la lógica que hemos aprendido en este Brain Feeling, que lidia con la manipulación de los símbolos siguiendo reglas formales.

En la última década, la programación ha empezado a cambiar con la creciente popularidad del machine learning, que incluye la creación de entornos de trabajo donde las máquinas puedan aprender a partir de inferencia estadística. Esto ha llevado a la programación más cerca de otra de las ramas de la lógica, la lógica inductiva, que lidia con reglas de inferencia de instancias específicas.
Hoy en día la técnica más prometedora de machine learning es el uso de redes neuronales, se se inventaron en los 1940s por Warren McCulloch y Walter Pitts, cuya idea era desarrollar un cálculo para las neuronas que pudiese, cómo la lógica Booleana, ser usado para la construcción de circuitos de ordenadores. Las redes neuronales permanecieron esotéricas hasta que décadas después se combinaron con técnicas estadísticas, que les permitió mejorar a medida que se les alimentaba con más datos.

Redes Neuronales
Recientemente, dado que los ordenadores tienen grande aceptación y sostienen conjuntos de datos cada vez más grandes, estas técnicas han demostrado unos resultados recalcables.
La programación en el futuro será como exponer las redes neuronales al mundo y dejar que aprendan. Esto será en segundo acto de la historia de los ordenadores.
La lógica empezó como un modo de entender las leyes del pensamiento. Luego ayudó a crear máquinas que podían razonar de acuerdo con las reglas de la lógica deductiva. Hoy, la lógica deductiva e inductiva se combinan para crear máquinas que razonen y aprendan. Lo que empezó, en palabras de Boole, con una investigación “consistente en la naturaleza y la constitución de la mente humana“ puede resultar en la creación de nuevas mentes (mentes artificiales) que algún día podrán ser como las nuestras o incluso superarlas.
Buen Domingo!!
Artículo Original: “How Aristotle Created the Computer” en The Atlantic
https://feelthebrain.me/tag/leibniz/

martes, 5 de septiembre de 2017

Cronología de Personal Computers Computadoras personales

Cronología de
Personal Computers Computadoras personales

Copyright © 1995-2008 Ken Polsson Copyright © 1995-2008 Ken Polsson
internet e-mail: kpolsson@islandnet.com e-mail de Internet: kpolsson@islandnet.com
All rights reserved. Todos los derechos reservados. Permission is granted to create web links Se concede permiso para crear enlaces web
to this site, not to copy these pages to other web sites. a este sitio, no copiar estas páginas a otros sitios web.
URL: http://www.islandnet.com/~kpolsson/comphist/ URL: http://www.islandnet.com/~kpolsson/comphist/
This document is an attempt to bring various published sources together to present a timeline about Personal Computers. Este documento es un intento de reunir varias fuentes publicadas para presentar un cronograma sobre computadoras personales.
This web document is a sneak peek at a book project of mine. Este documento web es un vistazo a un proyecto de libro mío. Since 1994, I have browsed over 1000 sources for date information related to personal computers. Desde 1994, he navegado más de 1000 fuentes de información de fechas relacionadas con ordenadores personales. This brief summary includes many of the essential happenings that shaped the industry. Este breve resumen incluye muchos de los acontecimientos esenciales que dieron forma a la industria. The full text contains over to 5000 entries. El texto completo contiene más de 5000 entradas. I have tried to keep it open-minded and unbiased, but the annoying fact is that "the winners write the history books". He tratado de mantenerlo abierto de mente e imparcial, pero el hecho molesto es que "los ganadores escribir los libros de historia".
Note: company and product names are the property of their respective owners. Nota: los nombres de empresas y productos son propiedad de sus respectivos propietarios. Such names are used for identification purposes only. Estos nombres se usan únicamente para fines de identificación. This site is solely the work of Ken Polsson, and is not affiliated with or endorsed by any of the companies listed herein. Este sitio es exclusivamente el trabajo de Ken Polsson, y no está afiliado ni endosado por ninguna de las compañías listadas aquí.

Computer/printer supplies links: Enlaces de suministros para computadoras / impresoras:
Online Shopping & Compare Prices Compras en línea y comparar precios
References are numbered in [brackets], which are listed here . Las referencias se numeran en [paréntesis], que se enumeran aquí . A number after the dot gives the page in the source. Un número después del punto da la página en la fuente.
Last updated: 2008 July 18. Última actualización: 2008 Julio 18.


1947 1947

December 23 Diciembre 23
  • Three scientists at Bell Telephone Laboratories, William Shockley, Walter Brattain, and John Bardeen demonstrate their new invention of the point-contact transistor amplifier. Tres científicos de Bell Telephone Laboratories, William Shockley, Walter Brattain y John Bardeen demuestran su nueva invención del amplificador de transistores de punto-contacto. The name transistor is short for "transfer resistance". El nombre de transistor es corto para "resistencia de transferencia". ( Miniaturization of electronic circuits via the transistor is a key development making personal desktop computers small, reliable, and affordable. ) [185.84] [202.131] [266.9] [1064.237] [1149.69] [1298.186] (La miniaturización de circuitos electrónicos a través del transistor es un desarrollo clave que hace que las computadoras de escritorio personales sean pequeñas, confiables y asequibles. ) [185.84] [202.131] [266.9] [1064.237] [1149.69] [1298.186]

1952 1952

January enero
  • A complaint is filed against IBM, alleging monopolistic practices in its computer business, in violation of the Sherman Act. Se presenta una queja contra IBM, alegando prácticas monopolísticas en su negocio informático, en violación de la Ley Sherman. ( The government's antitrust investigations and trial against IBM will drag on for thirty years, finally being dismissed in 1982. IBM will cautiously monitor its microcomputer business practices, fearful of a repeat of government scrutiny. ) [569.138] [1298.186] ( Las investigaciones antimonopolio del gobierno y el juicio contra IBM se prolongarán durante treinta años, siendo finalmente despedidos en 1982. IBM supervisará cautelosamente sus prácticas comerciales de microordenadores, temeroso de una repetición del escrutinio del gobierno. ) [569.138] [1298.186]

1956 1956

January enero
  • A US District Court makes a final judgement on the complaint against IBM filed in January 1952 regarding monopolistic practices. Un Tribunal de Distrito de los Estados Unidos emite un juicio final sobre la queja contra IBM presentada en enero de 1952 con respecto a prácticas monopolísticas. A "consent decree" is signed by IBM, placing limitations on how IBM conducts business with respect to "electronic data processing machines". IBM firma un "decreto de consentimiento", imponiendo limitaciones a la forma en que IBM lleva a cabo sus actividades con respecto a las "máquinas de procesamiento electrónico de datos". ( Though personal computers are twenty years in the future, this consent decree will limit IBM's success and ability to compete in the marketplace. ) [569.138] ( Aunque las computadoras personales tienen veinte años en el futuro, este decreto de consentimiento limitará el éxito de IBM y su capacidad para competir en el mercado ) . [569.138]
(month unknown) (mes desconocido)
  • The first transistorized computer is completed, the TX-O (Transistorized Experimental computer), at the Massachusetts Institute of Technology. La primera computadora transistorizada se completa, el TX-O (Transistorized Experimental computer), en el Massachusetts Institute of Technology. ( While not a microcomputer, this is is a step forward in the evolution of reducing the size of computers. ) [624] ( Aunque no es un microordenador, este es un paso adelante en la evolución de la reducción del tamaño de las computadoras. ) [624]
September 13 13 de septiembre
  • IBM introduces the IBM 350 Disk File, the first hard drive, as part of the IBM RAMAC 305 computer. IBM presenta el IBM 350 Disk File, el primer disco duro, como parte de la computadora IBM RAMAC 305. The drive features fifty double-sided 24-inch diameter platters, served by one arm and one read/write head. La unidad cuenta con cincuenta platos de doble cara de 24 pulgadas de diámetro, servido por un brazo y una cabeza de lectura / escritura. Capacity is about 5 MB, and transfer rate is 8800 characters per second. La capacidad es de aproximadamente 5 MB y la velocidad de transferencia es de 8800 caracteres por segundo. ( The first hard drives for personal computers will appear in about 15 years, also with a capacity of about 5 MB. ) [609.89] [838.S2] [945.61] [1089.392] [1606.54] [1612.55] [2065.93] [2097.20] [2238.99] (November [798.152]) ( Los primeros discos duros para las computadoras personales aparecerán en aproximadamente 15 años, también con una capacidad de cerca de 5 MB. ) [609.89] [838.S2] [945.61] [1089.392] [1606.54] [1612.55] [2065.93] [2097.20 ] [2238.99] (noviembre [798.152])

1958 1958

September 12 12 de septiembre
  • At Texas Instruments, Jack Kilby demonstrates the world's first integrated circuit, containing five components on a piece of germanium half an inch long and thinner than a toothpick. En Texas Instruments, Jack Kilby demuestra el primer circuito integrado del mundo, que contiene cinco componentes en un pedazo de germanio de media pulgada de largo y más delgado que un palillo de dientes. [110] [556.9] [732.23] [766.151] [1298.154] [1697.3] (October [1064.237]) (1959 [9] [606.5]) [110] [556.9] [732.23] [766.151] [1298.154] [1697.3] (octubre [1064.237]) (1959 [9] [606.5])

1959 1959

(month unknown) (mes desconocido)
  • At Fairchild Semiconductor, Robert Noyce constructs an integrated circuit with components connected by aluminum lines on a silicon-oxide surface layer on a plane of silicon. En Fairchild Semiconductor, Robert Noyce construye un circuito integrado con componentes conectados por líneas de aluminio sobre una capa superficial de óxido de silicio en un plano de silicio. [606.5] [732.25] [766.151] [1298.186] (1958 [1064.237]) [606,5] [732,25] [766,151] [1298,186] (1958 [1064,237])

1960 1960

(month unknown) (mes desconocido)
  • Digital Equipment introduces the first minicomputer, the PDP-1, for US$120,000. Digital Equipment presenta el primer minicomputador, el PDP-1, por US $ 120.000. It is the first commercial computer equipped with a keyboard and monitor. Es la primera computadora comercial equipada con un teclado y un monitor. PDP stands for Program, Data, Processor. PDP significa Programa, Datos, Procesador. ( The minicomputer represents an important size and power step from mainframe toward personal computers. ) [203.96] [415.36] [1112.140] [1149.20,31] (minicomputer introduced in 1972 [205.4]) (PDP means Programmed Data Processor [1559]) ( El minicomputador representa un tamaño importante y paso de poder desde el mainframe hacia computadoras personales. ) [203.96] [415.36] [1112.140] [1149.20,31] (minicomputador introducido en 1972 [205.4]) (PDP significa Programmed Data Processor [1559]).

1963 1963

(month unknown) (mes desconocido)
  • Douglas Engelbart's group at Stanford Research Institute in California studies interactive devices for displays. El grupo de Douglas Engelbart en el Stanford Research Institute en California estudia dispositivos interactivos para pantallas. Of the different devices tested - pointers, joysticks, trackballs - a brown, wooden box with two rolling wheels and a red push button on top achieves the best results. De los diferentes dispositivos probados - punteros, joysticks, trackballs - un marrón, caja de madera con dos ruedas de rodadura y un botón rojo en la parte superior logra los mejores resultados. Douglas Engelbart is credited with inventing the mouse pointing device for computers. A Douglas Engelbart se le atribuye la invención del dispositivo señalador del ratón para ordenadores. ( The mouse will be re-born some twenty years in the future, when personal computers become powerful enough to support graphical user interfaces. ) [1112.140] [1254.88] [1298.186] [1559] [1918.74] (1962 [1084.30]) (1964 [1606.54]) ( El ratón volverá a nacer unos veinte años en el futuro, cuando las computadoras personales lleguen a ser lo suficientemente potentes como para soportar interfaces gráficas de usuario. ) [1112.140] [1254.88] [1298.186] [1559] [1918.74] (1962 [1084.30]) 1964 [1606.54])

1964 1964

May 1 Mayo 1
  • At Dartmouth College, in Hanover, New Hampshire, the BASIC programming language runs for the first time. En Dartmouth College, en Hanover, New Hampshire, el lenguaje de programación BASIC se ejecuta por primera vez. The language was developed by professors John Kemeny and Thomas Kurtz, BASIC is an acronym for Beginners All-purpose Symbolic Instruction Code. El lenguaje fue desarrollado por los profesores John Kemeny y Thomas Kurtz, BASIC es un acrónimo para el Código de Instrucción Simbólica para principiantes. It is based on FORTRAN and Algol, and was developed for a General Electric 225 mainframe computer. Está basado en FORTRAN y Algol, y fue desarrollado para un ordenador central General Electric 225. ( BASIC becomes the most popular introductory programming language for microcomputers, often stored in ROM and executing commands interactively. ) [9] [132] [266.140] [801.65] [1038.155] [1069.268] [1149.23] [1280.40] [1299.26] [1556.9] (1965 [1112.142]) ( BASIC se convierte en el lenguaje de programación de introducción más popular para los microordenadores, almacenado a menudo en la ROM y ejecutando órdenes interactivamente. ) [1299.26] [9] [132] [266.140] [801.65] [1038.155] [1069.268] [1199.26] 1556.9] (1965 [1112.142])
(month unknown) (mes desconocido)
  • The American Standard Association adopts ASCII (American Standard Code for Information Interchange) as a standard code for data transfer. La American Standard Association adopta ASCII (Código Estándar Americano para el Intercambio de Información) como un código estándar para la transferencia de datos. ( This standard, defining 7-bit character codes, will be used for most personal computers in the Western world. ) [1112.140] ( Esta norma, que define los códigos de caracteres de 7 bits, se utilizará para la mayoría de los ordenadores personales en el mundo occidental. ) [1112.140]

1965 1965

April 19 19 de abril
  • Electronics magazine publishes an article by Gordon Moore, head of research and development for Fairchild Semiconductor, on the future of semiconductor components. La revista Electronics publica un artículo de Gordon Moore, director de investigación y desarrollo de Fairchild Semiconductor, sobre el futuro de los componentes de semiconductores. Moore predicts that transistor density on integrated circuits would double every 12 months for the next ten years. Moore predice que la densidad de transistores en los circuitos integrados se duplicaría cada 12 meses durante los próximos diez años. ( This prediction is revised in 1975 to doubling every 18 months, and becomes known as Moore's Law. ) [876.17] [941.58] [947.102] [1000.20] [1298.186] (1964 [29.91] [732.18]) (every 18 months [876.17] [947.102]) (every 18-24 months [941.58]) ( Esta predicción se revisa en 1975 para duplicar cada 18 meses, y se conoce como la Ley de Moore. ) [876.17] [941.58] [947.102] [1000.20] [1298.186] (1964 [29.91] [732.18]) (cada 18 meses [ 876,17] [947,102]) (cada 18-24 meses [941,58])

1966 1966

May Mayo
  • Steven Gray founds the Amateur Computer Society, and begins publishing the ACS Newsletter. Steven Gray funda la Sociedad de Informática Amateur, y comienza a publicar el Boletín de ACS. ( Some consider this to be the birth-date of personal computing. ) [208.64] ( Algunos consideran que esta es la fecha de nacimiento de la computación personal. ) [208.64]

1968 1968

June 4 4 de junio
  • The US Patent & Trademark Office grants patent 3,387,286 to Dr. Robert Dennard, of the IBM TJ Watson Research Center. La Oficina de Patentes y Marcas de los Estados Unidos otorga la patente 3,387,286 al Dr. Robert Dennard, del Centro de Investigación IBM TJ Watson. The patent is for a one-transistor DRAM cell and the basic idea in the three-transistor cell. La patente es para una célula DRAM de un transistor y la idea básica en la célula de tres transistores. ( Dynamic RAM (Random Access Memory) will become the standard short-term storage medium for programs and data during processing. ) [911] ( RAM dinámica (memoria de acceso aleatorio) se convertirá en el medio de almacenamiento de corto plazo estándar para programas y datos durante el procesamiento. ) [911]
(month unknown) (mes desconocido)
  • Robert Noyce and Gordon Moore found Intel Corporation. Robert Noyce y Gordon Moore encontraron a Intel Corporation. ( Intel begins as a memory chip producer, but will soon switch to the new field of microprocessors. ) [346.58] [1280.40] ( Intel comienza como un productor de chips de memoria, pero pronto cambiará al nuevo campo de microprocesadores. ) [346.58] [1280.40]
October 4 4 de octubre
  • An advertisement in Science magazine by Hewlett-Packard introduces first programmable scientific desktop calculator, which Hewlett-Packard calls "the new Hewlett-Packard 911A personal computer". Un anuncio en la revista Science de Hewlett-Packard presenta la primera calculadora de escritorio científica programable, que Hewlett-Packard llama "la nueva computadora personal Hewlett-Packard 911A". ( This is claimed as coining the term "personal computer". ) [213.5] [1559] ( Esto se reivindica como acuñando el término "ordenador personal". ) [213.5] [1559]
December diciembre
  • Douglas C. Engelbart, of the Stanford Research Institute, demonstrates his system of keyboard, keypad, mouse, and windows at the Fall Joint Computer Conference in San Francisco's Civic Center. Douglas C. Engelbart, del Instituto de Investigación de Stanford, demuestra su sistema de teclado, teclado, ratón y ventanas en la Conferencia de Informática de Otoño en el Centro Cívico de San Francisco. He demonstrates use of a word processor, a hypertext system, dynamic file linking, and remote collaborative work with colleagues on a shared screen. Demuestra el uso de un procesador de textos, un sistema de hipertexto, vinculación de archivos dinámicos y trabajo de colaboración remota con colegas en una pantalla compartida. [180.42] [185.98] [716.88] [753] [1280.40] [1298.186] [2319.18] [180.42] [185.98] [716.88] [753] [1280.40] [1298.186] [2319.18]

End of 1947-1968. Finales de 1947-1968. Next: 1969 . Siguiente: 1969 .
The complete timeline can be purchased in a PDF file for US$10 from the author. La línea de tiempo completa se puede comprar en un archivo PDF por US $ 10 del autor.
You can pay now directly via PayPal. Usted puede pagar ahora directamente vía PayPal. When I receive notification from PayPal, I will email you the PDF file. Cuando reciba una notificación de PayPal, le enviaré por correo electrónico el archivo PDF. or send me an email to request my mailing address to mail payment. o envíeme un correo electrónico para solicitar mi dirección postal para el pago por correo.



1947-1968 1947-1968 1969-1971 1969-1971 1972-1974 1972-1974 1975 1975 1976 1976 1977 1977 1978 1978 1979 1979 1980 1980 1981 1981
1982 mil novecientos ochenta y dos 1983 1983 1984 1984 1985 1985 1986 1986 1987 1987 1988 1988 1989 1989 1990 1990 1991 1991
1992 1992 1993 1993 1994 1994 1995 1995 1996 1996 1997 1997 1998 1998 1999 1999 2000 2000 2001 2001
2002 2002 2003 2003 2004 2004 2005 2005 2006 2006 2007-end Fin de 2007

For computer security or to keep a laptop safe it's good practice to mark them with asset labels , pc security labels or computer asset tags - all of which are available from Hologuard in the UK. Para la seguridad informática o para mantener una computadora portátil seguro es una buena práctica para marcarlos con etiquetas de activos , etiquetas de seguridad de PC o etiquetas de activos informáticos - todos los cuales están disponibles en Hologuard en el Reino Unido.

A list of references to all source material is available. Una lista de referencias a todo el material de origen está disponible. Other web pages of interest: Otras páginas web de interés:
  • Chronology of Handheld Computers Cronología de las computadoras portátiles
  • Chronology of Workstation Computers Cronología de las computadoras de la estación de trabajo
  • Chronology of Microprocessors Cronología de los microprocesadores
  • Chronology of IBM Personal Computers Cronología de IBM Personal Computers
  • Chronology of Apple Computers Cronología de Apple Computers
  • Chronology of Amiga Computers Cronología de Amiga Computers
  • Chronology of the Commodore 64 Computer Cronología del ordenador Commodore 64
  • Personal Computer References in Pop Culture Referencias de computadoras personales en la cultura pop
  • Ken P's Today in History Hoy en la historia de Ken P
  • SPOTS DEL POTAFOLIO