Pro Ces Adores

39
PROCESADORES. Inicios Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zócalo de la placa-base (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de

Transcript of Pro Ces Adores

PROCESADORES.

Inicios

Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en un placa de unos 15 por 15 pulgadas. Finalmente se construyó en un solo circuito integrado, encapsulado en un "chip", que se inserta en un zócalo de la placa-base (0). La historia de los procesadores, ha pasado por diferentes situaciones siguiendo la lógica evolución de este mundo. Desde el primer procesador 4004 del año 1971, hasta el actual Core i7 del presente año ha llovido mucho en el campo de los procesadores. Aquel primer procesador presentado en el mercado el día 15 de noviembre, poseía unas características únicas para su tiempo. Para empezar, la velocidad del reloj sobrepasaba por poco los 100 KHz (Kilo hertzio) disponía de un ancho de bus de 4 bits. Fue expuesto por Roberto Pineda 2002 en la U.E.V.A.A

Máximo de 640 bytes de memoria. Realmente una auténtica joya, que para entonces podía realizar gran cantidad de tareas pero que no tiene punto de comparación con los actuales micros, entre sus aplicaciones podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. Sin embargo el 1º de Abril de 1972 Intel anunciaba una versión mejorada de su procesador. se trataba del 8008,que contaba como principal novedad un bus de 8 bytes y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón a la primera computadora personal. Justo 2 años después Intel anunciaba esa tan esperada computadora personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise, en de los capítulos de la popular serie de televisión Star Trek, la semana en la que se creó la computadora. Esta computadora tenía un costo alrededor de los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de decenas de miles de unidades en lo que supónia la aparición de la primera computadora que la gente podía comprar, y no ya simplemente utilizar. Intel al cual se le ocurrió que su procesador 586 se llamara PENTIUM, por razones de mercado. Tiene varios como son: Pentium, Pentium II, Pentium III y Pentium IV , AMD tiene el AMD586, K5 y el K6. Los 586 (Pentium) ya son prácticamente obsoletos.

[editar] Ley de Moore

El Dr. Gordon Moore, uno de los fundadores de Intel Corporation, formuló en el año de 1965 una ley que se conoce como la " Ley de Moore". La citada ley dice que el número de transistores contenido en un microprocesador se duplica más o menos cada 18 meses. Esta afirmación, que en principio estaba destinada a los dispositivos de memoria y también los microprocesadores, ha cumplido la ley correctamente hasta ahora... Una ley que significa para el usuario que cada 18 meses puede disfrutar de una mejor tecnología, algo que se ha venido cumpliendo durante los últimos 30 años y se espera siga vigente en los próximos 15 o 20 años. De modo que el usuario puede disponer de mejores equipos, aunque también signifique la necesidad de cambiar de equipo cada poco tiempo, algo que no todo el mundo se puede permitir, y eso que el precio aumenta de forma absoluta pero no relativa, puesto que la relación MIPS-dinero está decreciendo a

velocidad vertiginosa. Esto no sucede con la industria del automóvil, ya que la potencia de los coches no se ha multiplicado de la misma forma que los precios. Queda claro que en los próximos años nos espera una auténtica revolución en lo que a rendimiento de los procesadores se refiere, como ya predijera Moore hace más de 30 años.

[editar] Nuevas tecnologías

Los procesadores ahora se pueden fabricar en mayor cantidad por wafer de silicio utilizado, esto le da una ventaja al fabricante en términos de menores costos. Pero no todo se reduce a eso; ahora es posible poner dos núcleos del procesador en el mismo espacio que antes ocupaba uno. Así pues el siguiente paso es el llamado Dual Core, es decir, un mismo procesador tiene, en realidad, dos cerebros, dos procesadores con sus respectivas memorias caché, pero con la misma cantidad de conectores. El proceso a seguir fue achicar aún más todo y además cambiar materiales. AMD e Intel pasaron entonces a los 90nm, más pequeños aún, y a nuevas tecnologías de proceso (SOI, por ejemplo: Silicon On Insulator), esto trae dos ventajas: menos calor, menos energía necesaria para mover el mismo electrón a la misma velocidad y más espacio. La ventaja de AMD sobre Intel está en el multiprocesamiento debido a que cada núcleo posee su conector HyperTransport y su controlador de memoria, Intel resolvió en cierta manera esto, pero AMD tiene, al poseer el controlador de memoria y el HT incluidos, la posibilidad no de Dual Core solamente... si no de N núcleos es decir, el paso que le sigue para el año que viene es meter 4 procesadores en un mismo envase, y luego 8.

Actualmente, ya hay disponibles procesadores de 4 núcleos a un precio asequible (alrededor de 300 €). Estos procesadores son los Intel Core 2 Quad y sus velocidades de proceso oscilan entre 2.400 y 2.666 MHz, aunque su principal ventaja es la elevada cantidad de memoria caché de segundo nivel: 8 MB. La memoria caché de un ordenador es la que almacena las operaciones que más se repiten, por lo que se almacenan en esa memoria en concreto para acelerar el proceso.

Por otro lado tenemos los procesadores multinúcleo de AMD, principal competidor de Intel. Próximamente lanzará al mercado sus procesadores de 3 y 4 núcleos - con los nombres de Phenom y Opteron, respectivamente - aunque los precios todavía son una incógnita.

En cuanto a lo que se aproxima, lo lógico es pensar que los fabricantes buscarán la manera de ir "sumando núcleos" y no tanto en aumentar la velocidad de reloj del procesador.

Otro factor que se sigue trabajando en cuanto a las CPU se refiere, es la velocidad del FSB. Mientras que AMD ha llegado a los 2000 Mhz gracias al Hyper Transport, los últimos procesadores de Intel ya soportan velocidades de 1366 Mhz.

[editar] Futuro de los microprocesadores

El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33%

con respecto a la generación del anterior. es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.

Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia donde vamos, en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.

ARQUITECTURA.

En su definición mas simple una RED es un conjunto de computadoras (y dispositivos) interconectadas por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios (acceso a internet, e-mail, chat, juegos), etc.

Las redes de computadoras se conforman por el Hardware y Software necesarios para conectarse con otros dispositivos electrónicos (impresoras, graficadores, etc.) y un medio de transmisión de tal manera que puedan enlazarse unos con otros. Los dispositivos que conforman la red son conocidos comúnmente como nodos. Una red de computadoras puede estar compuesta desde dos nodos hasta una cantidad indeterminada.

Conceptos Generales

Concepto DefiniciónaVelocidad de Transmisión

Bits por segundo que se transmiten (Unidades: Kbps, Mbps, Gbps). También se le llama, informalmente, "ancho de banda")

Latencia Tiempo que tarda en llegar un bit al destinoTransmisión serie Se transmite bit a bitTransmisión en paralelo

Se transmiten varios bits de golpe

Transmisión síncrona Existe un reloj común para emisor y receptorTransmisión asíncrona

No hay reloj común. Los datos deben ayudar al sincronismo

Transmisión Simplex El canal de comunicaciones es de un solo sentidoTransmisión Semi-Duplex

Canal bidireccional, pero en el que no puede transmitirse en ambos sentidos a la vez

Transmisión DuplexCanal bidireccional en el que puede transmitirse en ambos sentidos a la vez

Topología física Tendido de los cablesTopología lógica Operación real de la red Las topologías física y lógica pueden ser distintas

Arquitectura de una Red

Por Topología de red:

Red de bus Red de estrella Red de anillo (o doble anillo) Red en malla (o totalmente conexa) Red en árbol Red Mixta (cualquier combinación de las anteriores)

Por la direccionalidad de los datos (tipos de transmisión)

Simplex (unidireccionales), un Equipo Terminal de Datos transmite y otro recibe. (p.e. Streaming)

Half-Duplex (bidireccionales), sólo un equipo transmite a la vez. También se llama Semi-Duplex.(p.e. Una comunicación por equipos de radio, si los equipos no son full dúplex, uno no podría transmitir (hablar) si la otra persona está también transmitiendo (hablando) porque su equipo estaría recibiendo (escuchando) en ese momento).

Full-Duplex (bidireccionales) , ambos pueden transmitir y recibir a la vez una misma información. (p.e. Video-Conferencia)

Tipos de servidores utilizados

A continuación se mencionan algunos tipos de servidores utilizados en redes, y el propósito de cada uno de ellos.

Servidor de archivo: almacena varios tipos de archivos y los distribuye a otros clientes en la red.

Servidor de impresiones: controla una o más impresoras y acepta trabajos de impresión de otros clientes de la red, poniendo en cola los trabajos de impresión, y realizando la mayoría o todas las otras funciones que un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fue conectada directamente con el puerto de impresora del sitio de trabajo.

Servidor de correo: almacenan, envían, reciben, enrutan, y realizan otras operaciones relacionadas con email para los clientes de la red.

Proxy server: realiza un cierto tipo de función a nombre de otros clientes en la red para aumentar el funcionamiento de ciertas operaciones ), también sirve seguridad, esto es, tiene un Firewall. Permite administrar el acceso a internet en una Red de computadoras permitiendo o negando el acceso a diferentes Web sites

Servidor web: almacena documentos HTML, imágenes, archivos de texto, escrituras, y demás material Web compuesto por datos, y distribuye este contenido a clientes que la piden en la red.

¿Como se clasifican las redes

Por alcance: o Red de área personal (PAN) o Red de área local (LAN) o Red de área de campus (CAN) o Red de área metropolitana (MAN) o Red de área amplia (WAN)

Por método de la conexión: Medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos

de cables. Medios no guiados: radio, infrarrojos,microondas, láser y otras redes

inalámbricas.

Por relación funcional: Cliente-servidor

Igual-a-Igual (p2p)

CLASIFICACIÓN SEGÚN TAMAÑO

Las redes de computadoras actuales se encuentran relacionados con todos los modelos de computo. La clasificación de computadoras con base a su tamaño y distancia cubierta son:

Red LAN

Una LAN es un conjunto de computadoras unidas entre si por un cable u otro medio   de   transmisión  y   que  se  encuentran   conectadas   en   un  espacio  relativamente pequeño,   como  un  cuarto,   un   edificio  o  un  conjunto  de  edificios.   La  mayoría  de  las  redes   empresariales   o   institucionales   son locales. LAN es el acrónimo de Local Area Network.

Red MAN

Una MAN es un conjunto de computadoras unidas entres si por algún medio de transmisión  y  en  un   área  metropolitana,   es   decir  una extensión que abarque una ciudad o extensión similar.

Red WAN

Una WAN es un conjunto de computadoras dispersas en un área muy extensa, que puede abarcar hasta varios países o continentes. Un segmento de la red se une a los demás mediante líneas telefónicas, enlaces satelitales, fibra óptica o microondas celulares. Las computadoras de una gran transnacional o de un gobierno puede formar una WAN.

Al estar conectadas en red, ya sea LAN, MAN o WAN, una computadora puede comunicarse con cualquier otra maquina de la red, sin importar el modelo o la marca, e intercambiar información. Sólo se necesita que ambas máquinas compartan el mismo protocolo de comunicación. Es decir, que hablen el mismo idioma.

Topología de una red

La topología de red define cómo están conectadas computadoras, impresoras, dispositivos de red y otros dispositivos. En otras palabras, una topología de red describe la disposición de los cables y los dispositivos, así como las rutas utilizadas para las transmisiones de datos. La topología influye enormemente en el funcionamiento de la red. A la hora de instalar una red, es importante seleccionar la topología más adecuada a las necesidades existentes.

No se debe confundir el término topología con el de arquitectura. La arquitectura de una red engloba :

La topología. El método de acceso al cable. Protocolos de comunicaciones.

Las topologías son las siguientes:

Topología en anillo. Topología en bus. Topología en estrella. Topología estrella extendida Topología jerárquica Topología de malla

Existen mezclas de topologías de red, dando lugar a redes que están compuestas por mas de una topología física.

Topología Física de Estrellay Lógica de Anillo

Topología física de Estrella y lógica de Bus

Topología física de Estrellay lógica de Estrella

HUB

Un hub (en castellano concentrador) es un dispositivo electrónico que permite centralizar el cableado de una red.

Un concentrador funciona repitiendo cada paquete de datos en cada uno de los puertos con los que cuenta, excepto en el que ha recibido el paquete, de forma que todos los puntos tienen acceso a los datos.

También se encarga de enviar una señal de choque a todos los puertos si detecta una colisión. Son la base para las redes de topología tipo estrella. Como alternativa existen los sistemas en los que los ordenadores están conectados en serie, es decir, a una línea que une varios o todos los ordenadores entre sí, antes de llegar al ordenador central. Llamado también repetidor multipuerto, existen 3 clases.

Pasivo: No necesita energía eléctrica. Activo: Necesita alimentación. Inteligente: También llamados smart hubs son hubs activos que incluyen

microprocesador.

Dentro del Modelo OSI el concentrador opera a nivel de la capa física, al igual que los repetidores, y puede ser implementado utilizando únicamente tecnología analógica. Simplemente une conexiones y no altera las tramas que le llegan.

El hub envía información a ordenadores que no están interesados. A este nivel sólo hay un destinatario de la información, pero para asegurarse de que la recibe el hub envía la información a todos los ordenadores que están conectados a él, así seguro que acierta.

SWITCH

Un switch (en castellano conmutador) es un dispositivo electrónico de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI (Open Systems Interconection).

Los conmutadores se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las LANs (Local Area Network- Red de Área Local).

Los conmutadores poseen la capacidad de aprender y almacenar las direcciones de red de nivel 2 (direcciones MAC) de los dispositivos alcanzables a través de cada uno de sus puertos. Por ejemplo, un equipo conectado directamente a un puerto de un conmutador provoca que el conmutador almacene su dirección MAC. Esto permite que, a diferencia de los concentradores o hubs, la información dirigida a un dispositivo vaya desde el puerto origen al puerto de destino. En el caso de conectar dos conmutadores o un conmutador y un concentrador, cada conmutador aprenderá las direcciones MAC de los dispositivos accesibles por sus puertos, por lo tanto en el puerto de interconexión se almacenan las MAC de los dispositivos del otro conmutador.

TOKEN RING

Token Ring es una arquitectura de red desarrollada por IBM en los años 70's con topología lógica en anillo y técnica de acceso de paso de testigo. Token Ring se recoge en el estándar IEEE 802.5. En desuso por la popularización de Ethernet; no obstante, determinados escenarios, tales como bancos, siguen empleándolo.

El IEEE 802.5 es un estándar definido por el Institute of Electrical and Electronics Engineers (IEEE), y define una red de área local (LAN) en configuración de anillo (Ring), con método de paso de testigo (Token) como control de acceso al medio. La velocidad de su estándar es de 4 ó 16 Mbps.

Características principales Utiliza una topología lógica en anillo, aunque por medio de una unidad de

acceso de estación multiple (MSAU), la red puede verse como si fuera una estrella. Tiene topología física estrella y topología lógica en anillo.

Utiliza cable especial apantallado, aunque el cableado también puede ser par trenzado.

La longitud total de la red no puede superar los 366 metros. La distancia entre una computadora y el MAU no puede ser mayor que 100

metros. A cada MAU se pueden conectar ocho computadoras. Estas redes alcanzan una velocidad máxima de transmisión que oscila entre los 4

y los 16 Mbps. Posteriormente el High Speed Token Ring (HSTR) elevó la velocidad a 100 Mbps la mayoria de redes no la soportan

PUENTE DE RED

Un puente o bridge es un dispositivo de interconexión de redes de ordenadores que opera en la capa 2 (nivel de enlace de datos) del modelo OSI. Este interconecta dos segmentos de red (o divide una red en segmentos) haciendo el pasaje de datos de una red hacia otra, con base en la dirección física de destino de cada paquete.

Un bridge conecta dos segmentos de red como una sola red usando el mismo protocolo de establecimiento de red.

Funciona a través de una tabla de direcciones MAC detectadas en cada segmento a que está conectado. Cuando detecta que un nodo de uno de los segmentos está intentando transmitir datos a un nodo del otro, el bridge copia la trama para la otra subred. Por utilizar este mecanismo de aprendizaje automático, los bridges no necesitan configuración manual.

La principal diferencia entre un bridge y un hub es que el segundo pasa cualquier trama con cualquier destino para todos los otros nodos conectados, en cambio el primero sólo pasa las tramas pertenecientes a cada segmento. Esta característica mejora el rendimiento de las redes al disminuir el tráfico inútil.

Para hacer el bridging o interconexión de más de 2 redes, se utilizan los switch.

GATEWAY

Un gateway (puerta de enlace) es un dispositivo que permite interconectar redes con protocolos y arquitecturas diferentes a todos los niveles de comunicación. Su propósito es traducir la información del protocolo utilizado en una red al protocolo usado en la red de destino.

Una puerta de enlace o gateway es normalmente un equipo informático configurado para hacer posible a las máquinas de una red local (LAN) conectadas a él de un acceso hacia una red exterior, generalmente realizando para ello operaciones de traducción de direcciones IP (NAT: Network Address Translation). Esta capacidad de traducción de direcciones permite aplicar una técnica llamada IP Masquerading (enmascaramiento de IP), usada muy a menudo para dar acceso a Internet a los equipos de una red de área local compartiendo una única conexión a Internet, y por tanto, una única dirección IP externa.

La dirección IP de un gateway (o puerta de enlace) a menudo se parece a 192.168.1.1 o 192.168.0.1 y utiliza algunos rangos predefinidos, 127.x.x.x, 10.x.x.x, 172.x.x.x, 192.x.x.x, que engloban o se reservan a las redes locales.

En caso de usar un ordenador como gateway, necesariamente deberá tener instaladas 2 interfaces de red.

En las redes los dispositivos concretos se interconectan entre ellos mediante concentradores o conmutadores. Cuando se quiere agrupar esos dispositivos en grupos, se pueden conectar esos concentradores a unos routers. Un enrutador lo que hace es conectar redes que utilicen el mismo protocolo (por ejemplo, IP, NetBIOS, AppleTalk). Pero un router solo puede conectar redes que utilicen el mismo protocolo.

Entonces, cuando lo que se quiere es conectar redes con distintos protocolos, se utiliza un gateway, ya que este dispositivo si que hace posible traducir las direcciones y formatos de los mensajes entre diferentes redes.

ENRUTADOR

Enrutador (en inglés: ROUTER), ruteador o encaminador es un dispositivo de hardware para interconexión de red de computadoras que opera en la capa tres (nivel de red). Este dispositivo permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe tomar el paquete de datos.

Los Broadcast o difusiones, se producen cuando una fuente envía datos en sentido contrario a todos los dispositivos de una red En el caso del protocolo IP, una dirección de broadcast es una dirección compuesta exclusivamente por números unos (1) en el campo del host (para la dirección ip en formato binario de modo que para una máscara de red 255.255.255.0 la dirección de broadcast para la dirección 192.168.0.1 sería la 192.168.0.255 o sea xxxxxxxx.xxxxxxxx.xxxxxxxx.11111111).

Los protocolos de enrutamiento son aquellos protocolos que utilizan los enrutadores o encaminadores para comunicarse entre sí y compartir información que les permita tomar la decisión de cual es la ruta más adecuada en cada momento para enviar un paquete. Los protocolos más usados son RIP (v1 y v2), OSPF (v1, v2 y v3), IGRP, EIGRP y BGP (v4), que se encargan de gestionar las rutas de una forma dinámica, aunque no es estrictamente necesario que un enrutador haga uso de estos protocolos, pudiéndosele indicar de forma estática las rutas (caminos a seguir) para las distintas subredes que estén conectadas al dispositivo.

Los enrutadores operan en dos planos diferentes:

Plano de Control,en la que el enrutador se informa de que interfaz de salida es la más apropiada para la transmisión de paquetes específicos a determinados destinos.

Plano de Reenvío,que se encarga en la práctica del proceso de envío de un paquete recibido en una interfaz lógica a otra interfaz lógica saliente.

Comúnmente los enrutadores se implementan también como puertas de acceso a Internet (por ejemplo un enrutador ADSL), usándose normalmente en casas y oficinas pequeñas. Es correcto utilizar el término enrutador en este caso, ya que estos dispositivos unen dos redes (una red de área local con Internet).

REPETIDOR

Un repetidor es un dispositivo electrónico que recibe una señal débil o de bajo nivel y la retransmite a una potencia o nivel más alto, de tal modo que se puedan cubrir distancias más largas sin degradación o con una degradación tolerable.

El término repetidor se creó con la telegrafía y se refería a un dispositivo electromecánico utilizado para regenerar las señales telegráficas. El uso del término ha continuado en telefonía y transmisión de datos. En el modelo de referencia OSI el repetidor opera en el nivel físico.

En el caso de señales digitales el repetidor se suele denominar regenerador ya que, de hecho, la señal de salida es una señal regenerada a partir de la de entrada.

Los repetidores se utilizan a menudo en los cables transcontinentales y transoceánicos ya que la atenuación (pérdida de señal) en tales distancias sería completamente inaceptable sin ellos. Los repetidores se utilizan tanto en cables de cobre portadores de señales eléctricas como en cables de fibra óptica portadores de luz.

x86 Saltar a: navegación, búsqueda

Intel Pentium 4 Northwood.

x86 es la denominación genérica dada a ciertos microprocesadores de la familia Intel, sus compatibles y la arquitectura básica a la que estos procesadores pertenecen, por la terminación de sus nombres numéricos: 8086, 80286, 80386, 80486, etc. Han constituido desde su nacimiento un estándar para los ordenadores del tipo Compatible

IBM PC. Son comúnmente conocidos por versiones abreviadas de sus nombres, como 286 o i286, 386 o i386, 486 o i486, e incluso 086, por i8086 o i8088 (su respectiva versión de 8 bits). A partir del i486, sus sucesores serán conocidos por los nombres no numéricos referentes a la marca, logotipo o nombre clave con los que fueron lanzados al mercado, y se les comercializó (a menudo seguido de su frecuencia, en megahertzios, de ciclos de reloj), como los Pentium (y Pentium MMX), o los K5, para el 80586 (o i586), en sus respectivas versiones de Intel y AMD; los Pentium Pro, Pentium II, Pentium III y K6, así como los 6x86, de Cyrix, para el 80686 (o i686); o los Pentium 4, Pentium D y K7 (Athlon, Athlon XP, Duron y Sempron), para los 80686 de séptima generación. Con la octava generación de procesadores compatibles x86, los x86-64, que utilizan arquitectura y bus de 64 bits, con posibilidad de múltiples núcleos, introducida por AMD y clonada por Intel, se introducen por primera vez nuevas variantes y formas, en lo que a la denominación y clasificación del procesador se refiere, tales como el nombre comercial o tecnología del modelo, la compañía fabricante, su número de serie, la cantidad de bits a la que puede trabajar o la cantidad de núcleos por los que está compuesto, por ejemplo: Intel Core 2 Duo E2180, o lo que es lo mismo, i686 o Intel Pentium de doble núcleo E2180, de 64 bits y de 1,6 a 2,0 Ghz; o AMD Athlon 64 X2, es decir, un AMD 64 bits, Athlon X de doble núcleo a 2 Ghz; todos ellos englobados bajo el denominador común x86-64, y compatibles con subarquitecturas anteriores de 32, 16 y 8 bits, de la familia de procesadores x86 de Intel, y compatibles.

La comercial popularidad de esta arquitectura hizo que muchos fabricantes, además de Intel, empezaran a fabricar en masa microprocesadores basados en esta arquitectura. Estas compañías son entre otras AMD, Cyrix, NEC Corporation y Transmeta.

La arquitectura es notablemente no limpia, por mantener compatibilidad con la línea de procesadores de 16 bits de Intel, que a su vez también eran compatibles con una familia de procesadores de 8 bits. Existen dos sucesores de 64 bits para esta arquitectura:

IA64 , empleada en los procesadores Itanium de Intel y no compatible con X86, excepto bajo emulación.

AMD64 o x86-64, de AMD, que es básicamente una extensión de 64 bits de la familia x86.

Técnicamente, la arquitectura es denominada IA32 (Intel Architecture 32 bits). Está basada en un modelo de arquitectura CISC (del inglés Complex Instruction Set Computing).

[editar] Historia

Intel inició sus operaciones siendo un fabricante de memoria para computadoras. En 1971 fue la primera compañía en lograr la integración de suficientes transistores como para vender un microprocesador programable completo con un juego de instrucciones de 4 bits, que se volvería muy común en calculadoras de bolsillo: El Intel 4004.

Al 4004 lo sucedieron el 8008 en 1972 y en 1974 el 8080, cada vez logrando mayor capacidad. En 1978, Intel comenzó a comercializar el procesador 8086, un ambicioso chip de 16 bits potencialmente capaz de ser el corazón de computadoras de propósito múltiple. El 8086 se comercializó en versiones desde 4,77 y hasta 10MHz.

IBM adoptó al hermano mayor del 8086 (el 8088, un procesador con un bus de datos interno de 16 bits, pero con el bus externo de 8 bits, lo que permitía aprovechar diseños y circuitos para sistemas de 8 bits) para basarse en él y lanzar la línea de computadoras más exitosa de la historia: el IBM PC (1981) y el IBM XT (eXtended Technology) (1983) (ver influencia del IBM PC).

El éxito de esta serie fue tal que a partir de ese momento, todos los CPUs de Intel mantuvieron una estricta política de compatibilidad hacia atrás - Todo CPU fabricado por Intel desde ese momento y hasta el 2001 es capaz de ejecutar código compilado para cualquiera de sus predecesores.

Al 8086 lo sucedió el 80286 en 1982 (en el cual se basó la IBM PC/AT, 1985). Este chip, de 24/16 bits, implementó el modo protegido de ejecución, sentando las bases para la aparición de los verdaderos sistemas multitarea de escritorio. El 80286 apareció a 6MHz, y a lo largo de los años llegó hasta los 12MHz. Hubo varios sistemas operativos que aprovecharon su modo protegido para ofrecer multitarea real, tales como las primeras versiones de OS/2, o Xenix.

Pero el verdadero boom de la multitarea no llegó hasta el nacimiento del 80386 (1985) - Un avance tan fuerte que hoy en día es común referirse como i386 a toda la línea de procesadores que le siguieron (también es común la referencia IA32, Intel Architecture of 32 bits). El 386 fue el primer procesador de Intel de 32 bits, y -magníficas noticias para los desarrolladores- utilizarlo para aplicaciones de multitarea sería ya mucho más fácil de lo que lo fue con el 80286. El 80386 maneja velocidades de 16 a 33MHz.

El 80486 apareció en 1989. Fue un cambio relativamente menor frente al 80386 - Hasta su aparición, todas las computadoras PC tenían la opción de instalar en un zócalo de la placa base un -bastante caro- coprocesador numérico - para las XT, el 8087. Para las AT, el 80287. Para las 386, el 80387. A partir del 80486, el coprocesador numérico, así como la memoria caché L1 o de nivel 1 fueron integrados dentro del chip de la CPU (el coprocesador sólo en los modelos 486DX. Los modelos 486SX lo tenían desactivado), trayendo como resultado un gran aumento en la velocidad percibida por los usuarios. Internamente este procesador es el primer x86 segmentado (con una profundidad 5). Este cambio es importante pues permite a la misma frecuencia de reloj ejecutar casi el doble de instrucciones (1.9) e incrementar la frecuencia de reloj. El 486 existe en versiones desde 20 y hasta 100MHz. Estos últimos denominados 486-DX4 a pesar de multiplicar por tres la frecuencia de funcionamiento interna respecto al bus de datos externo.

En 1993 apareció el Pentium. ¿Por qué ya no se llamó 80586? Porque muchas empresas competidoras de Intel comenzaron a producir CPUs con el mismo nombre que los de Intel. Ante el fallo de que un número no puede ser tomado como marca registrada, a partir de entonces los procesadores llevan un nombre propio. Este procesador incorporaba bastantes novedades, entre ellas un coprocesador muy mejorado y un doble sistema de prefetch, lo que le permitía en ciertas situaciones ejecutar dos instrucciones simultáneas, con el consiguiente aumento de rendimiento (esto sólo era posible bajo ciertas combinaciones muy estrictas de instrucciones, con lo que el aumento de rendimiento sólo era apreciable en aplicaciones compiladas específicamente para él). El Pentium llegó desde los 60 hasta los 233MHz.

Poco después hizo su aparición el Pentium Pro, una versión orientada a servidores que incluía la caché de segundo nivel en el mismo encapsulado que el procesador. Su elevado precio supuso un freno a su expansión.[cita requerida]

Desde entonces, la tendencia al aparecer el Pentium II (1997), Pentium III (1999) y Pentium 4 (2000) ha sido la integración de más componentes, la adición de instrucciones específicas de multimedia y a elevar la velocidad de reloj tanto como sea posible. El Pentium II llegó desde 233 hasta 450MHz. El Pentium III desde 450 a 1400 (1.4GHz). El Pentium 4 debutó a 1.3GHz y en noviembre del 2005 llegaba ya a los 3.80 GHz. Con todo, la carrera de los Mhz se vio frenada debido al creciente consumo de energía y generación de calor producida por los microprocesadores a altas frecuencias de reloj, que en los últimos Pentium 4 superó fácilmente los 100W.

Paralelamente al Pentium II dos familias de CPUs fueron anunciadas: El Celeron, que es similar a los Pentium pero con menos memoria caché y, por consiguiente, menor precio y prestaciones, y el Xeon, orientado a servidores, con más memoria caché - y claro está, de mucho mayor costo. Con los Celerón se continuó con una tendencia, ya iniciada en los 386 y 486, de tener dos modelos de diferentes prestaciones en la misma familia de procesadores: los modelos DX (386DX y 486DX), de mayores prestaciones, y los modelos SX (386SX y 486SX) de menores prestaciones. En el caso del 386 por tener un bus externo de 16 bits en lugar de 32, como en los DX, y en los 486SX por tener desactivado el coprocesador matemático interno. Así, en los Pentium II, Pentium III y Pentium 4 aparecieron sus correspondientes versiones de bajo costo y prestaciones (básicamente, como ya se ha dicho, por tener menos memoria caché de nivel 2) con el nombre comercial de Celerón. Parece ser que el motivo principal de dicha diversificación, aparte de aumentar a un costo mínimo el abanico de modelos, prestaciones y precios, es de marketing: debido a las costantes bajadas de precio que experimentan los procesadores y el hardware en general, crear una "barrera de contención" que justifique los diferentes niveles de precios, poniendo un precio más alto a los procesadores más potentes.

Si un sistema operativo ejemplo: Windows, Linux, Maces por definición Multitarea y multiproceso.Y las computadoras actuales desde pentium 4 hacia abajo poseenun solo procesador ¿Cómo es posible que ese sistema operativo sea multiproceso?

puedes escuchar musica, abrir tu mail y trabajar en word al mismo tiempo cierto?? entonces es multitarea,,, de dos tareas en adelante ya es multi. no precisamente se refiere a los procesadores.de echo creo que son pocas las maquinas que pueden contar con 2 procesadores lo que si es relativamente nuevo es 1 procesador con doble, triple o cuadruple nucleo que virtualmente son 1 procesador cada nucleo, pero fisicamente solo queda uno. la diferencia de esto es que pueden procesar mas tareas sin "saturar" al procesador ya que se reparten los procesos cada uno de esos nucleos.

Un sistema operativo multiproceso o multitarea es aquel que permite ejecutar varios procesos de forma concurrente, la razón es porque actualmente nuestras CPUs sólo pueden ejecutar un proceso cada vez. La única forma de que se ejecuten de forma simultánea varios procesos es tener varias CPUs (ya sea en una máquina o en varias, en un sistema distribuido).

La magia de un sistema operativo multiproceso reside en la operacíon llamada cambio de contexto. Esta operación consiste en quitar a un proceso de la CPU, ejecutar otro proceso y volver a colocar el primero sin que se entere de nada.

Fuente(s):Los core 2 duo son los mas nuevo es para aquellas tareas que requieren multiprocesos a alta velocidad como los videojuegos avanzados

es 23 de julio de 2007

¿Que es un procesador de Doble Nucleo?

Un procesador de doble núcleo es una CPU (Central ProcessorUnit) con dos núcleos diferentes en una sola base, cada uno con supropio caché. Con ella se consigue mejorar el rendimiento delsistema, eliminando los cuellos de botella que se podrían llegar aproducir en las arquitecturas tradicionales.

Por tanto, es como si la CPU tuviera dos cerebros que pudierantrabajar de manera simultánea, tanto en el mismo trabajo, comoen tareas completamente diferentes, sin que el rendimiento deuno se vea afectado por el rendimiento del otro. Con ello seconsigue elevar la velocidad de ejecución de las aplicacionesinformáticas, sin que por ello la temperatura del equipoinformático se eleve en demasía, moderando, así, el consumoenergético.

Sin embargo, no hay que confundir un procesador de doble núcleocon un sistema multiprocesador. En el segundo existen dos CPUsdiferentes con sus propios recursos, mientras que en el primerolos recursos son compartidos y los núcleos residen en la mismaCPU.

A la hora de medir la velocidad de ejecución de cada tipo deprocesador, se puede concluir que el sistema multiprocesador esla modalidad que mayor velocidad ofrece, seguida por elprocesador de doble núcleo, y siendo el procesador más lento elde núcleo único.

Los dos grandes fabricantes de procesadores, son,evidentemente, los pioneros en el desarrollo y diseño de estosprocesadores de doble núcleo. Estos dos fabricantes son Intely AMD.

Así, por ejemplo, Intel, y según su propia publicidad,"proporciona exclusivamente 1MB para cada núcleo, aportando

los recursos de los dos núcleos de procesamiento y ofreciendo lanueva prestación necesaria para llevar a cabo tareas derendimiento exigente en su PC".

Por tanto, el procesador de doble núcleo aparece como el futurode los procesadores, ya que aumenta la velocidad del procesadorde núcleo único, sin aumentar por ello el consumo energético, y,además es más asequible para los usuarios particulares que lossistemas multiprocesador.

Los procesadores cada vez integran más funcionalidad dentro de la misma pastilla. La mejora que se ha venido produciendo en la tecnología de fabricación ha permitido reducir el tamaño de los elementos que componen un microprocesador. Ahora los fabricantes pueden incluir más elementos en la misma área.

Más elementos llevan a que cada vez se incluya más funcionalidad en el chip. Ese micro será capar de realizar más tareas y de una manera más eficiente. El objetivo, crear dispositivos cada vez más pequeños. La meta final es que el procesador se convierta en un SOC en estos, esta todo el sistema, o al menos la placa base, integrada en el chip.

¿Qué es por tanto un núcleo?

Un procesador antiguo también era conocido como unidad central de proceso. Este elemento leía las instrucciones y los datos y los procesaba dando lugar a los resultados. Un núcleo es la parte principal de esa unidad en concreto se encarga de ejecutar las instrucciones.

La disminución en el tamaño que ocupa un núcleo, debido a las mejoras de las que te hablaba antes, provoca que el fabricante tenga más área libre. Esto permite que se puedan aumentar las prestaciones duplicando esa unidad. De esta forma el procesador que antes era capaz de realizar una sola tarea ahora consigue realizar varias a la vez.

Antes de que se pudiera integrar 2 o más núcleos en un chip ya existían equipos multiprocesadores. Estos eran muy caros y necesitabas una placa base especial para conectarlos. La idea en esencia es la misma.

¿Un procesador con 2 núcleos es el doble de rápido que uno con 1 núcleo?

No todas las aplicaciones que utilizas pueden ejecutarse utilizando esos 2 núcleos de manera simultanea y por lo tanto tomar ventaja de eso. Imagina una aplicación que va a sumar una serie muy grande de números. Si vas acumulando la suma necesitas tener el resultado anterior para poder continuar. Este seria un ejemplo de tarea que no se podría acelerar usando varios núcleos.

Sin embargo, existen ciertas situaciones en las que tener 2 o más núcleos lleva a ganancias muy grandes de prestaciones. Las aplicaciones a veces producen bloqueos, por ejemplo esto ocurre casi de manera continua con los antivirus. Una utilidad de este tipo es capaz de consumir el 100% de la CPU, bloqueando a todas las demás, en un determinado momento. Para estos casos, disponer de más núcleos mejora la respuesta de todo el sistema.

Notaras que los procesadores de doble núcleo tienden a ser más ágiles en la respuesta a tus órdenes. Sin embargo no debes pensar que de manera general acaben su trabajo en la mitad de tiempo.

¿Sirve para algo tener más de 2 núcleos?

Debes de estar pensando, si con 2 núcleos somos capaces de quitar algunos bloqueos, ¿qué no podremos hacer con 3 o más? En principio cuantos más núcleos, el procesador será más potente, ya que limitara cierto tipo de bloqueos y será capaz de trabajar con más aplicaciones a la vez.

Los fabricantes tienen claro eso y la tendencia pasa por aumentar el número de núcleos. Por desgracia, la mayoría de las utilidades y aplicaciones no pueden ejecutar sus propias instrucciones en paralelo. Sin embargo, existen ciertas tareas que si se benefician de manera clara del aumento de núcleos:

Retoque fotográfico. Sobre todo en la aplicación de filtros. Se pueden calcular a la vez diferentes regiones de la imagen.

Trabajos de video. Es parecido a lo que ocurre en el caso anterior, la utilidad puede trabajar con diferentes periodos de tiempo dentro de la película.

Juegos de estrategia. Existen muchos juegos en los cuales el próximo movimiento se basa en realizar cálculos sobre las posiciones futuras, el caso más claro es el ajedrez.

Rendering. La creación de imágenes 3D también se aprovecha de este aumento. La razón es similar a la del retoque fotográfico ya que los programas pueden calcular distintas regiones de manera independiente.

MIC ROPROCESADORES DE VARIOS NUCLEOS

En un principio los Microprocesadores eran de un solo núcleo. Es decir eran Microprocesadores que poseían en un encapsulado una unidad completa.

Actualmente, los que poseen mas de un núcleo, es algo así como dos o mas unidades (completas o con algunas diferencias) en un mismo encapsulado. Esto aumenta el rendimiento, en especial si se utilizan mas de una aplicación al mismo tiempo.

Como siempre hay que tener en cuenta que el rendimiento de un Sistema Informático no depende de un solo componente sino de todo el conjunto y será mayor o menor según el software que se utilice o para que se utilice la computadora. Si el Software, no está preparado para utilizar la potencia de un Microprocesador con varios núcleos, podría no mejorar su rendimiento.

La idea primaria de un Sistema Informático con varios microprocesadores, es que si uno está ocupado en una tarea, el otro podría utilizarse en otra. Entonces esto es muy útil en estaciones de trabajo. Ahora bien, los fabricantes debido a la complicación de elevar la velocidad de trabajo de un Microprocesador por cuestiones de energía y disipación del calor. Para lograr un mejor rendimiento, optaron por fabricar dos o mas microprocesadores en uno, o mejor dicho en un Microprocesador dos o mas núcleos. Entonces ya no es tanto el tema de la Velocidad del núcleo (aunque se continua subiéndola de a poco) sino el del rendimiento en general.

La desventaja de los Multinucleos: por ahora es igualmente el consumo de energía (aunque sostenible con una fuente de alimentación correcta y menor a tener

dos Microprocesadores separados); el aumento de calor en el caso de tener mas núcleos en un encapsulado, es decir mas transistores (aunque es asimismo menor que si fuera la suma de dos Microprocesadores separados y se maneja con el disipador correspondiente); y hasta que no sea totalmente un estándar el costo y la utilización por parte del software. Edito (Diciembre del 2008): Prácticamente ahora se adquiere Microprocesadores de dos núcleos ya que hay de costo económico y tanto AMD como Intel poseen opciones de bajo costo. Luego AMD posee unos multinucleo de bajo consumo.

El hecho de que no todas las aplicaciones actuales se ven beneficiadas con esta arquitectura es importante, lo cual a medida que pasa el tiempo cada vez, en teoría, variaría. Pero aun en el 2009 un usuario común podría preguntarse ¿Para que un Procesador de varios núcleos?  Y creo que la respuesta la dará el presupuesto que se dispone como generalmente suele ocurrir, y en relación de todo el Sistema y no solo del microprocesador principal.

Va ha haber una sensible mejora en el rendimiento en general. Aunque a no pensar, que será el doble (salvo en algunos casos del software estar preparado o de ejecutar dos o mas programas al mismo tiempo). Luego, la mejora dependerá de por ejemplo que se esté haciendo, no es lo mismo escuchando música + jugando a un juego de los últimos, que simplemente jugando a un juego de los últimos. Pero, la multitarea ya está desde hace mucho tiempo atrás implementada, por eso es factible escuchar música y jugar a un juego aunque con menor rendimiento sin necesidad de tener dos microprocesadores, aunque estén integrados en una sola unidad.

A tenerse en cuenta que un juego para PC no preparado para esta tecnología no andará mucho mejor en un procesador de varios núcleos que de uno, salvo que se deseen hacer varias tareas al mismo tiempo. Tal vez si, se notaria mas la diferencia con una Placa de Video de mejor calidad, pero esto ultimo habría que evaluarlo según la configuración de hardware.

No obstante mi gran duda es por ejemplo (en el momento de escribir esto) ¿Para que un usuario común quiere cuatro núcleos o aun más? Ya que se está hablando de Microprocesadores no solo de Dual Core. No obstante, esto no quiere decir que cada vez mas aplicaciones comiencen a utilizar el multi-threaded, al menos se supone

Especificaciones técnicas procesador

Los fabricantes utilizan los siguientes parámetros a la hora de definir sus procesadores:

Núcleos. En un procesador moderno tienes más de un núcleo por procesador lo cual hace que la computadora sea capaz de realizar varias tareas a la vez.

A mayor número de núcleos la computadora tendrá menos problemas para ejecutar varias aplicaciones a la vez. El sistema responderá de manera cómoda aunque una tarea monopolice un núcleo.

Como regla general a mayor número, mejores prestaciones y más caros.

Procesadores actuales para equipos sobremesa:

4 núcleos

Intel i7-965, Intel i7-975, Intel i7-26xx, Intel i5-25xx, Intel i5-24xx, AMD Phenom II X4 xxx

6 núcleos

Intel i7-980X, Intel i7-990X, AMD Phenom II X6 1xxxx

Subprocesos. Intel utiliza una tecnología llamada Hyperthreading. De esta manera consigue duplicar el número de tareas que es capaz de ejecutar cada núcleo. Una computadora con esta tecnología parecerá que tiene el doble de núcleos.

Un procesador que soporte esta tecnología no tendrá las mismas prestaciones que otro con núcleos reales pero es una mejora.

Los i7 anteriores lo soportan.

Litografía. Es el tamaño de una cara de un transistor medida en nanómetros (nm).

Un procesador esta compuesto por millones de transistores. A menor tamaño de transistor mayor número de ellos en el mismo espacio. El procesador podrá incluir entonces más núcleos, una pequeña unidad de procesamientos de gráficos o más memoria interna.

Al aumentar la velocidad las computadoras consumen cada vez más potencia pudiendo llegar a quemarse. Transistores más pequeños, consumen menos y por lo tanto puedes tener mayores prestaciones con la misma potencia.

Intel trabaja con tamaños de 45nm y 32 nm, habiendo anunciado que usará 22 nm para el 2012. AMD todavía trabaja con 45nm.

45 nm

AMD Phenom II X6 1xxxx, AMD Phenom II X4 xxx, Intel i7-965, Intel i7-975

32 nm

Intel i7-980X, Intel i7-990X, Intel i7-26xx, Intel i5-25xx, Intel i5-24xx

Velocidad de reloj. Se mide en GHz. Indica el número de operaciones por segundo que la computadora es capaz de realizar.

Frecuencia turbo máxima. Al tener varios núcleos puede ocurrir que los programas que ejecutes no estén dando trabajo a todos. En este caso el procesador aumenta la velocidad de los que estén funcionando hasta un limite indicado por este número.

Thermal Design Power (TDP). Consumo medido en Watios, muy importante para los portátiles.

¿Qué hacer después de agregar mas memoria RAM a servidor Debian?

Hola Ernesto, gracias por responder.

Al servidor no le puedo hacer el memtest, pues tengo corriendo unservidor con servicios web, así que se me complica el asunto; peropara monitorear uso munin, y ya se ve reflejado el cambio, lo quepodría indicar que todo anda bien...

Y lo de cambiar configuraciones era por si alguien tenia a la manoalgunos tips, para poner al máximo apache, php, etc, con 2 Gb de RAM.

Gracias y hasta pronto...

El día 24 de enero de 2009 7:29, Ernesto Hernandez-Novich<emhnemhn at gmail.com> escribió:> On Fri, 2009-01-23 at 21:41 +0000, Luis Vivas wrote:>> ¿Qué hacer después de agregar mas memoria RAM a servidor Debian?>> Si quieres estar seguro de la calidad y funcionalidad de la memoria,> utiliza algún LiveCD y deja corriendo memtest por al menos un par de> horas. Si no se reporta ningún error, entonces la memoria opera sin> problemas.>> Luego inicia tu sistema y nada más.>>> Esta máquina es un servidor en producción, con todos los servicios Web>> (apache-php-mysql-dns-correo), ¿debería cambiar alguna configuración>> de estos servicios instalados?>> No estás obligado a cambiar ninguna configuración. Si estás agregando> memoria es porque ya habías diagnosticado que la necesitabas con la> configuración actual. Supongo que tendrías alguna instrumentación de> monitoreo que te mostraba el consumo de memoria y que puedes usar para

> comparar el antes y el después.

¿Cómo elegir un web framework?

Struts, Spring, Rails, Symfony, CakePHP, Dojo, YUI, Script.aculo.us, Django y más (muchos más). La lista de frameworks de desarrollo en web es larga, muy larga. ¿Cómo podemos elegir uno entre tantos? y antes que nada ¿qué es un framework?

Un framework es un conjunto de clases, funciones y/o herramientas que nos ayudan a construir una aplicación. Se diferencian de una librería por su tamaño y diversidad, aunque el límite no esta tan definido.

Existen dos grandes grupos de framework los full-stack y los glue, que los podemos diferenciar por sus objetivos.

Full-Stack: el objetivo principal de los full-stack es proveer un conjunto de componentes que abarque todo lo que necesitas para construir una aplicación web, asegurandose que todos esos componentes funcionen bien entre si.

Glue: por el contrario el objetivo de los glue es tener un conjunto de adaptadores e interfaces de código que pueden manejar varios componentes, es decir que funcionan bien mezclandose con otros componentes distintos al framework.

Razones para elegir un framework

¡No reinventemos la rueda!. Para que vamos a gastar tiempo desarrollando un sistema de template si puedo reutilizar uno, que ya esta probado por muchos usuarios.

La mayoría de los frameworks siguen buenas prácticas de programación como patrones de diseño y estan desarrollados por gente más hábil que nosotros.

Muchos de los web frameworks son abiertos y soportados por una comunidad que actualizan la funcionalidad y corrigen los bugs de manera sostenida.

Razones para NO elegir un framework

Empecemos con otro cliché, no hay balas de plata. Los framework tratan de abarcar la mayor variedad de aplicaciones, lo que hace que en muchos casos no se adapte a lo nuestro. También puede resultar que sea demasiado para lo que nosotros necesitamos, ¿o todas las aplicaciones tienen que soportar distintas bases de datos, múltiples idiomas, caché y ajax?.

¿Cuál de todos?

Lo básico para descargar cualquier framework es que actualmente lo usen bastantes personas programadores, que tenga una buena comunidad que lo soporte y que la documentación sea amplia y actualizada.

Para ver cuanta gente lo usa se puede ver el tráfico de las webs en Alexa (Ejemplo comparación de tráfico de algunos frameworks de PHP) o buscar en Technorati cuanta gente habla en sus blogs de un framework (Ejemplo: Django vs TurboGears).

El soporte de la comunidad es cuanta gente y cuanto participa en sus foros, chats y wikis. Es una buena oportunidad para ver el nivel de la comunidad, si el nivel es demasiado profesional o la comunidad tiene buen soporte para la gente que esta aprendiendo.

Sobre la documentación no hay mucho que decir simplemente leer un poco y ver todo el índice. Acordate: si un módulo o API no está documentado no existe.

La tabla de comparación de funcionalidad de frameworks que tiene la wikipedia es (ver tabla) una buena referencia a pesar de estar en inglés.

Paso a explicar que un poco el encabezado de la tabla:

Ajax: el nivel de soporte que tiene el framework hacia otros frameworks de Ajax conocidos o si incluye soporte propio.

MVC framework: MVC es Modelo-Vista-Controlador, un patrón de arquitectura de aplicaciones donde el modelo es el acceso a los datos, la vista es la salida (un html, un xml, texto, etc) y el controlador quien decide que datos (del modelo) y como mostrarlos y en que salida (a la vista).

MVC Push/Pull: Una arquitectura MVC Push es cuando los datos son seteados en la vista, por el contrario de MVC Pull donde la vista los pide (mediante un getter por ejemplo). La mayoría sigue el enfoque MVC Push.

i18n & l10n: i18n quiere decir internacionalización y l10n localización. Si el framework esta preparado para sitios internacionales con el soporte para cambiar los textos, el formate de la fecha y hora, la moneda, etc.

ORM: Que tipo de mapeo de objetos a base de datos utiliza. Muchos usan el patrón Active Record. También es bastante usado Hibernate/NHibernate en Java y .NET.

Testing framework(s): Si usa Unit Testing y que herramienta usa. DB migration framework(s): Soporte de migración de base de datos. Security Framework(s): Como trabaja el framework en el control de accesom

es decir usuarios y roles. Generalmente se usa algun sistema basado en ACL. Template Framework(s): Que sistemas de template soporta el framework. Caching Framework(s): Los tipos de cache que estan integrados al framework.

Hay varios tipos, pero memcache es uno muy usado. Form Validation Framework(s): Si integra la validación en los formularios.

Bonus Track: ¿Por qué crear un framework?

No recomiendo crear un framework. Es una tarea muy costosa y si se hace mal en vez de tener beneficios se tienen verdaderos dolores de huevo cabeza. Pero podemos justificar la creación de uno cuando nuestra área de trabajo es siempre la misma, como sistemas de inmobiliarias o blogs. Siempre va a ser mejor contar con un framework propio que haga nuestra tarea repetitiva. Sin embargo podemos aprovechar que casi siempre son abiertos los frameworks para adaptar alguno a nuestro caso y aprovechar la calidad del framework con la especialización de nuestra adaptación.

Lista de Framework MVC para PHP

Desde que un amigo me hablo de CakePHP, me metí en ese Framework y no lo he soltado mas, de hecho a veces intento participar del grupo, pero el tiempo que me queda entre la Universidad, el trabajo, la familia y la polola (novia), es casi nulo.

Además de este Framework, que mas de alguna vez he mencionado acá también, existen una gran variedad, incluso hay algunos en español. Acá les presento una lista de Framework con arquitectura MVC para hacer tus desarrollos PHP mas ágiles y profesionales.

Achievo ATK Akelos Framework AModules3 Ambivalence Aukyla PHP Framework Binarycloud Biscuit bitweaver Booby CakePHP Castor Cgiapp CodeIgniter Copix Core Enterprise PHP FastFrame Fusebox FuseLogic Konstrukt Kumbia Krysalis Inek InterJinn Ismo Medusa Nexista P4A PHP on Trax PHPulse PhpMVC Popoon Prado Qcodo rwfphp Seagull Sitellite SolarPHP sQeletor Studs

struts4php symfony TaniPHP Tigermouse web.framework Wolfden CMF Zephyr Framework Zoop Framewor

Ahora es cosa de ustedes elegir el que mas se acomode a sus necesidades.

FRAMEWORK.

CRUD Saltar a: navegación, búsqueda

En computación CRUD es el acrónimo de Crear, Obtener, Actualizar y Borrar (del original en inglés: Create, Read, Update and Delete). Es usado para referirse a las funciones básicas en bases de datos o la capa de persistencia en un sistema de software.

En algunos lugares, se utilizan las siglas ABM para lo mismo (Alta Baja Modificación), obviando la operación de Obtener; el acrónimo ABC para Altas, Bajas y Cambios; ABML siendo la última letra (L) de listar, listado o lectura; o ABMC siendo la C de Consulta.

También es usado el ABCDEF : Agregar, Buscar, Cambiar, Desplegar(listar), Eliminar, Fichar(Ficha, cédula o Reporte de un registro)

SCAFFOLDING ANDAMIAGE.

El andamiaje es una meta-programación método de construcción de la base de datos back-end- aplicaciones de software . Es una técnica apoyada por algunos modelos de controlador de vista- marcos , en los que el programador puede escribir una especificación que describe cómo la base de datos de aplicación puede ser utilizada. El compilador utiliza esta especificación para generar el código que la aplicación puede utilizar para crear, leer, actualizar y eliminar las entradas de la base de datos, el tratamiento efectivo de la plantilla como un " andamio "sobre la cual construir una aplicación más potente.

El andamiaje es una evolución de los generadores de código de base de datos de los entornos de desarrollo anteriores, como generador el caso de Oracle, y muchos otros 4GL cliente-servidor de productos de desarrollo de software.

Andamios fue popularizado por el Ruby on Rails marco. Se ha adaptado a los marcos de software, incluidos los de Django , Monorail (. Net) , Symfony , CodeIgniter , Yii , CakePHP , Modelo de pegamento , Grails , Catalyst , Marco Seam , Spring Roo , datos dinámicos de ASP.NET y ASP.NET MVC Ayudantes marco de metadatos de la plantilla.

Andamios en Ruby on Rails

Cuando la línea de scaffold : model_name se agrega a un controlador , Rails generará automáticamente todas las interfaces de datos apropiados en tiempo de ejecución. Desde la API se genera sobre la marcha, el programador no puede modificar fácilmente las interfaces generadas de esta manera. Tal un simple andamio se utiliza a menudo para prototipos de aplicaciones y la introducción de datos de prueba en una base de datos. Tenga en cuenta, a partir del Rails2.0, andamios dinámica ya no está almacenada

[ editar ] andamio generación

El programador también puede ejecutar un comando externo para generar código Ruby para el cadalso de antemano: rails generate scaffold model_name . El generate secuencia de comandos se generan archivos de código Ruby que la aplicación se puede utilizar para interactuar con la base de datos. Es un poco menos cómodo que los andamios dinámico, pero le da al programador la flexibilidad de modificar y personalizar la API generadas