viernes, 26 de octubre de 2012
jueves, 18 de octubre de 2012
DESARROLLO SUSTENTABLE
|
TRANSTORNO HUMANO
|
||
En
1987, el desarrollo sustentable fue presentado formalmente por la Comisión
Mundial de Medio Ambiente y Desarrollo de Naciones Unidas, como una
alternativa al desarrollo socioeconómico tradicional, causante de graves
daños ambientales al planeta. Ocho años después, en 1995, fundamos en México Espacios Naturales y Desarrollo Sustentable A.C. y
establecimos como uno de nuestros objetivos principales, promover
alternativas de producción en las comunidades de nuestro país, que
garantizarán su sustento económico y que protegerán su capital natural. A la
fecha, hemos puesto en marcha decenas de proyectos productivos amigables con
el medio ambiente, que han beneficiado a muchas familias y a su entorno
ecológico. Nuestra visión a futuro es seguir trabajando para que el
desarrollo sustentable en nuestro país sea el medio natural de desarrollo.
|
<!--[if !supportLineBreakNewLine]--> <!--[endif]--> |
El decrecimiento es una corriente de pensamiento político, económico y social favorable a la disminución regular controlada de la producción económica con el objetivo de establecer una nueva relación de equilibrio entre el ser humano y la naturaleza, pero también entre los propios seres humanos. Rechaza el objetivo de crecimiento económico en sí del liberalismo y el productivismo;[1] en palabras de Serge Latouche: la consigna del decrecimiento tiene como meta, sobre todo, insistir fuertemente en abandonar el objetivo del crecimiento por el crecimiento, [...] En todo rigor, convendría más hablar de "acrecimiento", tal como hablamos de "ateísmo".[2] Por ello también se suelen denominar "objetores de crecimiento". La investigación se inscribe pues en un movimiento más amplio de reflexión sobre la bioeconomía y el postdesarrollo, que implicaría un cambio radical de sistema.
|
domingo, 7 de octubre de 2012
TEGNOLOGIA DEL MAIZ TRANSGENICO
¿EN QUE CONSISTE LA TEGNOLOGIA DELMAIZ TRANSGENICO? Los alimentos sometidos a ingeniería genética o alimentos transgénicos son aquellos que fueron producidos a partir de un organismo modificado genéticamente mediante ingeniería genética. Dicho de otra forma, es aquel alimento obtenido de un organismo al cual le han incorporado genes de otro para producir las características deseadas. En la actualidad tienen mayor presencia alimentos procedentes de plantas transgénicas como el maíz, la cebada o la soja. La ingeniería genética o tecnología del ADN recombinante es la ciencia que manipula secuencias de ADN (que normalmente codifican genes) de forma directa, posibilitando su extracción de un taxón biológico dado y su inclusión en otro, así como la modificación o eliminación de estos genes. En esto se diferencia de la mejora clásica, que es la ciencia que introduce fragmentos de ADN (conteniendo como en el caso anterior genes) de forma indirecta, mediante cruces dirigidos. La primera estrategia, la de la ingeniería genética, se circunscribe en la disciplina denominada biotecnología vegetal. Cabe destacar que la inserción de grupos de genes y otros procesos pueden realizarse mediante técnicas de biotecnología vegetal que no son consideradas ingeniería genética, como puede ser la fusión de protoplastos. ¿cueles son los efectos positivos y negativos para el hombre al consumir el maiz transgenico?
|
||||
En la
zanahoria se ha prolongado el caroteno crujiente en el momento de ser ingerido.
En el café se ha reforzado su aroma y se ha reducido el contenido en cafeína. En
la patata se ha potenciado su resistencia a ser afectada por virus, se ha
reducido su capacidad de absorción de aceites (durante la fritura) y se han
obtenido variedades más dulces. En la soja, base para la mayoría de los
productos que ingerimos (camuflados bajo la inscripción 322), ha reducido la
necesidad de utilización de fertilizantes, se ha incrementado su aporte
nutritivo aumentando su valor proteico y se han eliminado los componentes
causantes de alergias. En la uva se han conseguido nuevas variedades sin
semillas. En la achicoria se ha incrementado la dulzura en su sabor. Aspectos negativos de los Alimentos Transgénicos El mayor peligro que presentan los alimentos transgénicos es el desconocimiento de las consecuencias de su utilización, ya que nadie conoce ni puede predecir los efectos a largo plazo que la introducción de un gen, o de un conjunto de genes, tendrán sobre un organismo, sobre nuestra salud o sobre el medioambiente. Dicho hecho se reafirma al no haberse realizado suficientes estudios suficientes estudios experimentales sobre los potenciales efectos adversos de los alimentos modificados genéticamente en la salud. Los peligros para la salud pública se deben sobre todo a que la introducción del transgene (gen transgénico) conlleva la producción de proteínas completamente nuevas en el organismo modificado, que nunca han formando parte de nuestra dieta y que pueden resultar tóxicas o alergénicas. Los riesgos se incrementan con la regeneración y creación de bacterias y virus patógenos, que pueden originar y desarrollar nuevas enfermedades) y la generalización de la resistencia a los antibióticos. A su vez, el empobrecimiento de la biodiversidad conlleva la eliminación de otras especies asociadas, así como una posible pandemia.
|
viernes, 5 de octubre de 2012
martes, 2 de octubre de 2012
INNOVACION DE LA COMPUTADORA
Innovacion de la computadora:
Todos los días salen noticias sobre computación, sobre software y tecnologia... uno desearia aveces tener un lector de RSS directo a la cabeza... pero despues de un tiempo te empiezas a dar cueta de que muchas cosas que pasan solo son copias de otras cosas... o noticias sin relevancia en realidad. Mucha gente dice que la innovación en el software se perdio. La gente de SUN dice que la innovacion es posible y por eso hicieron Project Looking Glass pero luego lo abrieron y casi no le han hecho ni un cambio... Microsoft y Mac tienen la eterna pelea, pero al final son casi lo mismo, uno funciona (MUCHO) mejor que el otro, pero el "aproach" a como se hacen las cosas sigue siendo el mismo: una barra de tareas, un Escritorio, iconos en el escritorio....
Mas abajo pongo una lista de proyectos que me parecen muy innovadores
Archy es un sistema en donde se destruye el concepto de progamas separados y escritorio. La información es persistente y es accecible a todos.. vale la pena hecharle un vistaso
SymphonyOs es un sistema de escritorio, pero bien distinto a los demas, muy enfocado a la usabilidad...
On-Line System que es invención de Douglas Engelbart. No parece inovador, pero fue MUY innovador.. de hecho, todos esos conceptos los invento él hace 40 años atras. El rompio con todas las
ideas antiguas y creo lo que tenemos hoy.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
BIOTECNOLOGIA
La biotecnología ha sido utilizada por el hombre desde los comienzos de la historia en actividades tales como la preparación del pan y de bebidas alcohólicas o el mejoramiento de cultivos y de animales domésticos. Procesos como la producción de cerveza, vino, queso y yogurt implican el uso de bacterias o levaduras con el fin de convertir un producto natural como la leche, en un producto de fermentación más apetecible como el yogurt.
En términos generales biotecnología es el uso de organismos vivos o de compuestos obtenidos de organismos vivos para obtener productos de valor para el hombre.
La biotecnología moderna está compuesta por una variedad de técnicas derivadas de la investigación en biología celular y molecular, que pueden ser utilizadas en cualquier industria que utilice microorganismos o células vegetales o animales.
Por tanto, podemos decir que la biotecnología abarca desde la biotecnología tradicional, muy conocidas y ser utilizadas, desde la fermentación de alimentos, hasta la biotecnología moderna, basada en la utilización de las nuevas técnicas del ADN (ingeniería genética), los anticuerpos monoclonales y los nuevos métodos de cultivo de células y tejidos.
OFIMATICA
Se conoce como suite ofimática, por último, a la recopilación de programas informáticos que son de uso habitual en las oficinas. Estas suites suelen incluir procesador de texto, hoja de cálculo, gestión de base de datos, cliente de correo electrónico, agenda y administrador de presentaciones o diapositivas.
Todos los días salen noticias sobre computación, sobre software y tecnologia... uno desearia aveces tener un lector de RSS directo a la cabeza... pero despues de un tiempo te empiezas a dar cueta de que muchas cosas que pasan solo son copias de otras cosas... o noticias sin relevancia en realidad. Mucha gente dice que la innovación en el software se perdio. La gente de SUN dice que la innovacion es posible y por eso hicieron Project Looking Glass pero luego lo abrieron y casi no le han hecho ni un cambio... Microsoft y Mac tienen la eterna pelea, pero al final son casi lo mismo, uno funciona (MUCHO) mejor que el otro, pero el "aproach" a como se hacen las cosas sigue siendo el mismo: una barra de tareas, un Escritorio, iconos en el escritorio....
Mas abajo pongo una lista de proyectos que me parecen muy innovadores
Archy es un sistema en donde se destruye el concepto de progamas separados y escritorio. La información es persistente y es accecible a todos.. vale la pena hecharle un vistaso
SymphonyOs es un sistema de escritorio, pero bien distinto a los demas, muy enfocado a la usabilidad...
On-Line System que es invención de Douglas Engelbart. No parece inovador, pero fue MUY innovador.. de hecho, todos esos conceptos los invento él hace 40 años atras. El rompio con todas las
ideas antiguas y creo lo que tenemos hoy.
la nanotecnologia
La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman (Breve cronología - historia de la nanotecnología).
La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas
Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
BIOTECNOLOGIA
La biotecnología ha sido utilizada por el hombre desde los comienzos de la historia en actividades tales como la preparación del pan y de bebidas alcohólicas o el mejoramiento de cultivos y de animales domésticos. Procesos como la producción de cerveza, vino, queso y yogurt implican el uso de bacterias o levaduras con el fin de convertir un producto natural como la leche, en un producto de fermentación más apetecible como el yogurt.
En términos generales biotecnología es el uso de organismos vivos o de compuestos obtenidos de organismos vivos para obtener productos de valor para el hombre.
La biotecnología moderna está compuesta por una variedad de técnicas derivadas de la investigación en biología celular y molecular, que pueden ser utilizadas en cualquier industria que utilice microorganismos o células vegetales o animales.
Por tanto, podemos decir que la biotecnología abarca desde la biotecnología tradicional, muy conocidas y ser utilizadas, desde la fermentación de alimentos, hasta la biotecnología moderna, basada en la utilización de las nuevas técnicas del ADN (ingeniería genética), los anticuerpos monoclonales y los nuevos métodos de cultivo de células y tejidos.
OFIMATICA
Se conoce como suite ofimática
LA HISTORIA DE LA COMPUTADORA:
La primera máquina de calcular mecánica, un precursor del ordenador , fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una de de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía .
El inventor francés Joseph Marie Jacquard, al un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemasmatemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una , o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operacionesmatemáticas y una impresora para hacer permanente el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
La primera máquina de calcular mecánica, un precursor del ordenador , fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una de de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía .
El inventor francés Joseph Marie Jacquard, al un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemasmatemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una , o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operacionesmatemáticas y una impresora para hacer permanente el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
La primera máquina de calcular mecánica, un precursor del ordenador , fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una de de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía .
El inventor francés Joseph Marie Jacquard, al un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemasmatemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una , o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operacionesmatemáticas y una impresora para hacer permanente el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
La primera máquina de calcular mecánica, un precursor del ordenador , fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una de de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía .
El inventor francés Joseph Marie Jacquard, al un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemasmatemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una , o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operacionesmatemáticas y una impresora para hacer permanente el registro.
Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
Suscribirse a:
Entradas (Atom)