jueves, 19 de abril de 2007

DIFERNCIA ENTRE LOS NAVEGADORES

normalmente yo usaba el internet explorer, cuando vi que existian varias navegadores use el firefox.

bueno ya he descargado varios navegadores tales como el nestcape,avant go, opera, moxila, firefox

Son navegadores interesantes que tiene muy buenas obsiones, ademas me impresiono por lo que puedo descargar un mini nextcape para mi celular.


el opera es muy bueno tambien
avant go tambien tieno lo suyo
bueno el moxilla se puede decir que son el mismo navegador pero el moxilla firefox es mas avanzado que el moxilla normal.


BUENO EN CONCLUCION YO ME QUEDARUIA CON EL FIREFOX
PORQUE
POR QUE ES EL MAS COMPLETO Y SE LO PUEDE MANIPULAR.
ADEMAS PUEDO DESCARGAR VARIOS ARCHIVOS Y ME LOS MUESTRA EN UNA VENTANITA BIEN ELEGANTE.

su pagina es elegante
tiene enlaces directos y es muy facil de navegar con el

domingo, 15 de abril de 2007

practico 1




10) Realice un brebe resumen de los hechos mas importantes de la evolucion historica del internet


Primeramente el internet es una red la red mas grande de internet work, el cual esta conformada por un conjunto de computadoras conoctadas.

En 1960 por el departamento del Gobierno de los EEUU.
Como resultado de las Investigación en este proyecto surge el protocolo TCP/IP. ademas el internet esta habierto a todo tipo de computadora.

Internet surge a finales de los años 60 con el nombre de ARPANET.

en 1990 el internet ya tenia 35 millones de usuarios.


12) Indique y explique cada uno de los elementos indispensables para acceder a internet


Se inició con el protocolo de transmición TCP/IP.TCP:

Transmición Contol Protocol

IP: Internet Protocol


Direcciones URL


Cada computadora de Internet tiene una dirección que la identifica, cada página Web tiene una dirección única. Una página Web es un documento almacenado en una determinada carpeta dentro de una computadora, en su dirección deben figurar todos estos datos. Se especifican utilizando lo que se denomina una dirección URL

La dirección de la computadora es su nombre en el Sistema de Nombre de Dominios (DNS). La trayectoria es la lista de la carpeta por las que hay que ir para llegar a la carpeta donde está almacenada la información, y por ultimo está el nombre del archivo en el que está almacenada la información a la que queremos acceder.

Por ejemplo, la dirección:
http://www.ua.es/alumnado/index.html
ProtocoloTCP/IP

Una red
es una configuración de computadora que intercambia informacion. Pueden proceder de una variedad de fabricantes y es probable que tenga diferencias tanto en hardware como en sofware, para posibilitar la comunicacion entre estas es necesario un conjunto de reglas formales para su interacción. A estas reglas se les denominan protocolos.
Servidores

Un servidor es un ordenador de gran potencia, que se encarga de "prestar un servicio" a otros ordenadores (por ejemplo, el suyo) que se conectan a el. Varios servidores juntos, es decir conectados entre si, forman una red IRC. Estas maquinas se encargan de hacer que los mensajes que usted escriba lleguen a su destino y también de hacer llegar hasta usted, los mensajes del resto de usuarios.



sábado, 14 de abril de 2007

Cinco generaciones de computadoras modernas





Con el principio de la Segunda Guerra Mundial, los gobiernos pretendieron desarrollar computadoras para aprovechar su potencial importancia estratégica. Esto coadyuvó al incremento de financiamientos para el desarrollo de proyectos computacionales, acelerando el progreso técnico. En 1941, el ingeniero alemán Konrad Zuse desarrolló la computadora Z3, para diseñar aeroplanos y misíles. Sin embargo, las fuerzas aliadas hicieron mayores avances desarrollando computadoras más poderosas. En 1943, los británicos terminaron una computadora para romper el código secreto llamada Coloso y fue utilizada para decodificar mensajes alemanes. El impacto del Coloso en el desarrollo de la industria de la computación fue también limitado por dos razones importantes. La primera fue que el Coloso no era una computadora multi propósitos; fue diseñada únicamente para decodificar los mensajes secretos. En segundo lugar, la existencia de la máquina fue mantenido en secreto hasta décadas después de la guerra.
Los esfuerzos americanos produjeron éxitos más importantes. Howard H. Aiken (1900-1973), un ingeniero de Harvard que trabajaba con la IBM, obtuvo éxito en la creación de una calculadora completamente electrónica en 1944. El propósito de esta calculadora fue crear cartas de navegación balística para la Marina de Guerra de los Estados Unidos.

Figura 6. Máquina Coloso





















Esta tenía la mitad de las medidas de un campo de foot ball y estaba hecho con alrededor de 500 millas de cableado. La calculadora de secuencia controlada de Harvard-IBM, o Mark I por corto tiempo, fue una computadora con regulador electrónico. Esta utilizaba señales electromagnéticas para mover partes mecánicas. La máquina era lenta (tomaba de 3-5 segundos para hacer cálculos) e inflexible (en esas secuencias los cálculos no se podían modificar); sin embargo, realizaba tanto operaciones aritméticas como ecuaciones complejas.
Otra computadora promovida por la guerra fue el integrador numérico electrónico y computador (ENIAC), producida en sociedad entre el Gobierno de los Estados Unidos y la Universidad de Pennsylvania. Consiste en 18,000 tubos catódicos, 70,000 reostatos y cinco millones de conecciones soldadas, la computadora era como una pieza sólida de maquinaria que consumía 160 kilovatios de energía eléctrica, suficiente energía para apagar la luz en una sección completa de Filadelfia. Fue desarrollada por John Presper Eckert (1919-1995) y John W. Mauchly (1907-1980). ENIAC, a diferencia del Coloso y la Mark I, fue una computadora multipropósitos que procesaba 1,000 veces más rápido que la Mark I.

Figura 7. Computadora ENIAC



















Figura 8. Computadora EDVAC

A mediados de 1940, John von Neumann (1903-1957) se unió al equipo de la Universidad de Pennsylvania, para iniciar la conceptualización del diseño de las computadoras que permanecieron como las principales para la ingeniería en computación durante los siguientes 40 años. Von Neumann diseñó la computadora automática de variable discontinua (EDVAC) en 1945 con una memoria capaz de mantener almacenados tanto los programas como los datos. Esta técnica de “memoria almacenada” además de tener “control de transferencia condicional”, que permite parar la computadora en cualquier momento y luego (condensar o) reiniciarla, esto permite dar mayor versatilidad en la programación de computadoras. El elemento clave en la arquitectura de Von Neumann fue la unidad central de proceso, que hacía possible que todas las funciones de la computadora estuvieran coordinadas a través de una sola fuente. En 1951, la UNIVAC I (Computadora Universal automática), construída por Remington Rand, llegó a ser una de las computadoras comercialmente disponibles que aprovechó estos avances. Ambos el Buró de Censos de U.S. y la General Electric poseían UNIVACs. Uno de los más impresionantes logros de la UNIVAC fue predecir el ganador de las elecciones presidenciales de 1952, Dwight D. Eisenhower.
La primera generación de computadoras estuvo caracterizada por el hecho de que las instrucciones operativas fueron hechas a la medida de acuerdo a las tareas específicas para las cuales la computadora sería utilizada. Cada computadora tiene un programa codificado en binario llamado lenguaje de la máquina, que le dice a ésta como trabajar. Esto dificulta que la computadora programe y limite su versatilidad y rapidez. Otras características distintivas de las computadoras de la primera generación es el uso de tubos catódicos (responsables de su impresionante tamaño) y cilindros magnéticos para el almacenamiento de datos.

Segunda Generación (1956-1963)

En 1948, la invención del transistor cambió significativamente el desarrollo de las computadoras. Este transistor reemplazó el tan incomodamente grande tubo catódico en las televisiones, radios y computadoras. Como resultado de esto, el tamaño de los aparatos electrónicos se ha reducido desde entonces. El transistor estaba en el trabajo en la computadora desde 1956. Combinado con avances más recientes en la memoria magnética, los transistores permitieron que las computadoras de la segunda generación fueran más pequeñas, más rápidas, confiables y más eficientes que sus predecesoras. Las primeras máquinas en gran escala que aprovecharon la tecnología de éstos transistores fueron las primeras supercomputadoras, Stretch por IBM y LARC por Sperry-Rand. Estas computadoras, ambas desarrolladas por laboratorios de energía atómica, podían manejar enormes cantidades de datos, una capacidad mayor en demanda de los científicos atómicos. Sin embargo, estas máquinas eran costosas y tendían a ser muy poderosas para las necesidades computacionales del sector comercial, de allí se deriva su limitado atractivo. Solamente dos LARCs fueron instaladas: una en los Laboratorios de Radiación Lawrence de Livermore, California, por lo cual esta computadora recibió el nombre LARC (Livermore Atomic Research Computer) y la otra al Centro de Investigación y Desarrollo de la Fuerza Naval de los Estados Unidos en Washington, D.C. La segunda generación de computadoras reemplazaron el lenguaje de la máquina por el lenguaje de programación básico paralelo a la máquina, lo cual permitió abreviar los códigos de programación para reemplazar los largos y difíciles códigos binarios.
A lo largo de los años 1960, hubo un número de computadoras de la segunda generación comercialmente exitosas utilizadas en negocios, universidades, y gobierno de compañías como Burroughs, Control Data, Honeywell, IBM, Sperry-Rand, y otros. Estas computadoras de la segunda generación fueron también de diseño sólido y contenían transistores en lugar de tubos catódicos. También contenían los componentes que asociamos con las computadoras de hoy en día: impresoras, cintas magnéticas de almacenaje, memoria, sistemas operativos, y programas almacenados. Un ejemplo importante fue la IBM 1401, que fue universalmente aceptada en el sector industrial, y es considerada por muchos como el modelo T en la industria de las computadoras. En 1965, la mayoría de grandes comercios tenían como rutina procesar toda su información financiera utilizando computadoras de la segunda generación.
Fueron los programas almacenados y el lenguaje de programación los que le dieron a la computadora la flexibilidad para ser finalmente efectiva y productiva para los negocios. El concepto de programas almacenados significa que las instrucciones para el funcionamiento de la computadora para una función específica (conocido como programa) fuera almacenados en la memoria de la computadora y podía reemplazarse por otra programación para una función diferente. Una computadora podía imprimir facturas de clientes y minutos más tarde diseñar productos o calcular sueldos. Lenguajes más sofisticados como el COBOL (Common Business-Oriented Language) y el FORTRAN (Formula Translator) se volvieron de uso común durante este período, y se extendieron hasta el presente. Estos lenguajes reemplazaron las máquinas con codificación binaria encriptada con palabras, oraciones y fórmulas matemáticas haciendo mucho más fácil la programación de computadoras. Nuevas carreras (programador, analista, y experto en sistemas de computación) y toda la industria de programas operativos se inició con la segunda generación de computadoras.

Tercera Generación (1964-1971)

Aunque el transistor fue un claro avance sobre el tubo catódico, aún generaban una gran cantidad de calor, lo cual dañaba las partes internas más sensibles de la computadora. Las rocas de cuarzo eliminaron este problema. Jack Kilby, un ingeniero de Texas Instruments, desarrolló el circuito integrado (IC) en 1958. El circuito integrado combinado con tres componentes electrónicos en un disco de silicón pequeño, el cual estaba hecho de cuarzo. Más tarde algunos científicos lograron acomodar muchos más componentes en un solo chip, llamado semiconductor. Como resultado de esto, las computadoras se volvieron más pequeñas mientras más componentes se comprimían dentro del chip. Otro desarrollo incluido en las máquinas de la tercera generación es el uso de un sistema operativo que permitía correr diferentes programas a la vez con un programa central que monitoreaba y coordinaba la memoria de la computadora.

Cuarta Generación (1971- a la fecha)

Después de los circuitos integrados, la única forma de mejorar era reduciendo el tamaño. Integración en gran escala (LSI) podía comprimir cientos de componentes en un solo chip. Por los años 1980's, integración a alta escala (VLSI) comprimía cientos de miles de componentes en un chip. Integración a escala ultra grande (ULSI) aumentó su número a millones. La habilidad de acomodar tanto en una área de más o menos la mitad del tamaño de una moneda de diez norteamericana, ayudó a disminuir el tamaño y precio de las computadoras. También contribuyó a incrementar su poder, eficiencia y fiabilidad. El chip intel 4004, desarrollado en 1971, llevó el circuito integrado un paso adelante pues colocó todos los componentes de una computadora (unidad central de procesamiento, memoria y controles de entrada y salida) en un chip minúsculo. Mientras que el circuito anterior había tenido que ser manufacturado para adaptarse a un propósito especial, ahora un microprocesador puede ser fabricado y luego programado para adaptarse a cualquier cantidad de demandas. Muy pronto, artículos para uso del hogar tal como los hornos de microhondas, televisores y automóviles con inyección electrónica incluirían microprocesadores.
Este poder condensado permite que las personas aprovechen diariamente el poder de las computadoras. Estas ya no fueron desarrolladas exclusivamente para grandes negocios o contratos gubernamentales. A mediados de 1970, los fabricantes de computadoras buscaban ofrecer computadoras a consumidores en general. Estas computadoras venían equipadas con paquetes programas de uso amigable que le ofrecían, aún a usuarios sin experiencia técnica, una serie de aplicaciones, más popularmente conocidos como procesador de texto y programas de hojas de cálculo. Los pioneros en este campo fueron Commodore, Radio Shack y las computadoras Apple. A inicios de 1980, los juegos de video tales como el Pac Man y sistemas de juegos de video hechos en casa tales como el Atari 2600 despertó el interés de los consumidores por computadoras personales más sofisticadas y programables.
En 1981, IBM introduce su computadora personal (PC) para uso del hogar, oficina y escuelas. Los años 80 vieron una expansión en el uso de las computadoras en los tres campos de clones, la IBM PC hizo la computadora personal aún más accesible. El número de computadoras personales en uso se duplicó de dos millones en 1981 a 5.5 millones en 1982. Diez años más tarde 65 millones de PCs estaban siendo utilizadas. Las computadoras continuaron su tendencia a reducir más su tamaño, trabajando siempre para transformar un computador de mesa en uno portátil (que cupiera en un portafolios) o en uno de mano (capaz de acomodarse en el bolsillo). Apple Macintosh estaba en competencia directa con las PC’s de IBM que se introdujo al mercado en 1984. Eran importantes por su diseño de uso amigable, y la Macintosh ofrecía un sistema operativo que permitía a sus usuarios mover los iconos de la pantalla en lugar de digitar las instrucciones. Los usuarios controlaban el cursor de la pantalla por medio de un mouse, que era una unidad que imitaba el movimiento de una mano en la pantalla de la computadora.
Mientras el uso de las computadoras se hacía más generalizado en los lugares de trabajo, se desarrollaban nuevas formas de desarrollar su potencial. Dado que las computadoras pequeñas se tornaron más poderosas, también podían ser conectadas en redes de trabajo, para compartir memoria, programas, información y comunicarse entre ellas. Contrariamente a la computadora central, que fue una computadora poderosa que compartía tiempo con muchas terminales para múltiples aplicaciones, las computadoras conectadas en red permitían a las computadoras individuales formar redes electrónicas. Usando tanto cableado directo al cual se denomina Red de Area Local (LAN), o líneas telefónicas, estas redes podían alcanzar grandes proporciones. Una red global de computadoras, el Internet, por ejemplo, une las computadoras de todo el mundo en un sólo sistema de redes de información. Durante las elecciones presidenciales de los Estados Unidos de 1992, el candidato vice-presidencial Al Gore, prometió desarrollar la tan llamada "autopista de la información" como una prioridad administrativa. Aunque las posibilidades visionarias de Gore y otros de tan inmensa red de información podría tomar años (si no décadas), el uso más popular en las redes de información tales como el Internet es el correo electrónico, o E-mail, el cual permite a los usuarios escribir a una dirección de computadora y enviar mensajes a través de terminales enlazadas por una red a través de toda una oficina o alrededor del mundo.

Definir la quinta generación de las computadoras es algo difícil ya que el campo está en su infancia. El ejemplo más famoso de las computadoras de la quinta generación es la computadora ficticia HAL9000 de la novela de Arthur C. Clarke, 2001: Una Odisea Espacial. HAL ejecutó todas las funciones previamente conceptualizadas para las computadoras de la vida real correspondientes a la quinta generación. Con inteligencia artificial incorporada, HAL podia razonar lo suficientemente bien para mantener una conversación con sus operadores humanos. Utiliza entradas de datos visuales, y aprende de sus propias experiencias. (Desafortunadamente, HAL era muy poco humana y tenía una falla psicópata, secuestrar una nave especial y matar a todos los humanos a bordo).
Aunque el obstinado HAL9000 puede estar muy lejos del alcance de diseñadores de computadoras de la vida real, muchas de sus funciones no lo están. Al hacer uso de los avances más recientes de la ingeniería, las computadoras son capaces de recibir instrucciones habladas (identificación de voz) e imitar el razonamiento humano. La habilidad de traducir un lenguaje extranjero es muy probable con las computadoras de la quinta generación. Este hecho parecía, en un principio, un objetivo bastante simple, pero luego resultó ser mucho más complicado cuando los programadores se dieron cuenta que el entendimiento humano depende tanto del contexto como de una simple traducción de palabras.
Muchos avances en las ciencias de diseño y tecnología de computación se están uniendo para permitir la creación de computadoras de la quinta generación. Ambos avances son procesos paralelos que reemplazan el diseño de von Neumann, es decir, la unidad central de procesamiento, y que contiene un sistema que aprovecha el poder de muchas computadoras personales para trabajar como una sola. Otro avance es la tecnología superconductora que permite el flujo de electricidad con poca o ninguna resistencia, que mejora grandemente la rapidez en el flujo de la información. Las computadoras de hoy tienen algunos atributos de las computadoras de la quinta generación. Por ejemplo, los sistemas especializados que ayudan a los doctores a emitir diagnósticos, por medio de la aplicación del sistema paso a paso para resolver problemas un doctor puede utilizarlo para evaluar las necesidades de sus pacientes. Pasarán muchísimos años más antes de poder desarrollar sistemas expertos para el uso generalizado.

viernes, 13 de abril de 2007

hyfnghkhk