viernes, 20 de febrero de 2009
Las memorias DDR-3, tienen un proceso de fabricación distinto a las DDR2. Los fabricantes de memorias han hecho una inversión muy grande para pasar de DDR a DDR2, y eso hay que amortizarlo. La competencia es grande y los márgenes comerciales muy pequeños, por lo que la amortización ha de ser a largo plazo. Nunca las memorias han estado a un precio tan bajo como están ahora, en otro tiempo, la memoria podía suponer un 20% del precio de un equipo, pero ahora no son ni un 5%. La esperanza del fabricante estaba basada en los grandes requerimientos de Windows Vista, pero la implantación de este sistema operativo está resultando más lenta de lo previsto. Por todos estos motivos, fabricar DDR3 solo es rentable para dispositivos cuyos precios lo permitan.
Entonces, ¿ qué va a suceder ? . Pues parece que la implementación de DDR3 va a ser lenta, incluso se habla de que no será total hasta el 2010, cosa que en informática parece lejanísimo, más aún, cuando los fabricantes de placas base, anuncian ya la compatibilidad para este tipo de memorias.
Como siempre, habrá que esperar para ver la evolución del mercado, y cuando llegue el momento del tránsito, las memorias subirán de precio.
viernes, 6 de febrero de 2009
Nokia y Symbol Technologies crearon en 1999 una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003 . El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos.
De esta forma en abril de 2000 WECA certifica la interoperatibilidad de equipos según la norma IEEE 802.11b bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos.
En el año 2002 la asociación WECA estaba formada ya por casi 150 miembros en su totalidad.
La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet).
Estándares existentes [editar]
Artículo principal: IEEE 802.11
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:
• Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente.
• En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
• Un primer borrador del estándar IEEE 802.11n trabaja de forma simultanea a 2.4GHz y a 5,4Ghz y permite alcanzar velocidades de 300Mbps, mediante la utilizacion sumultanea del 50% de los canales disponibles, en las dos bandas libres. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.
Seguridad y fiabilidad [editar]
Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en la conexiones de larga distancia (mayor de 100 metros), en realidad Wifi esta diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance esta expuesto a un excesivo riesgo de inteferencias.
Un muy elevado porcentaje de redes son instaladas sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o muy vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:
• Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP y el WPA, que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos
• WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire.
• WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
• IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
• Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados.
• Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
• El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.
Dispositivos [editar]
Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.
• Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
• Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.
• Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
• Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
Tarjeta USB para Wi-Fi.
o Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
o Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
o Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no esta estandarizada.
o También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".1
Ventajas y desventajas [editar]
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
• Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
• Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
• La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
• Una de las desventajas que tiene el sistema Wi-Fi es la pérdida de velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
• La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica ya que sigue siendo difícil para lo que representa la seguridad de una empresa estar "seguro". Uno de los puntos débiles (sino el gran punto débil) es el hecho de no poder controlar el área que la señal de la red cubre, por esto es posible que la señal exceda el perímetro del edificio y alguien desde afuera pueda visualizar la red y esto es sin lugar a dudas una mano para el posible atacante.
• Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.
Véase también [editar]
• Ad Hoc
• Bluetooth
• FON
• Fritz!Box
• GPRS y HSDPA
• Guifi.net
• Hotspot
• LMDS
• Organizaciones Certificadoras y Reguladoras Inalámbricas
• RedLibre
• Tarifa plana para Wi-Fi
• UMTS
• Warchalking (entizado de guerra).
• WDS
• WiBro
• WISP
• WiMAX
• WRT54G
• ZigBee
• Power Line Communications
Referencias [editar]
1. ↑ Linux wireless LAN support http://linux-wless.passys.nl
Enlaces externos [editar]
• En 2007, uno de cada dos internautas irá sin cables
• Wi-Fi Alliance (en inglés)
• Wireless Fidelity (Wi-Fi) - Specifications (en inglés)
• Sobre el significado de la denominación Wi-Fi (en inglés)
• Sobre el significado de la denominación Wi-Fi (en español, traducción parcial del artículo anterior)
• Wi-Fi de 500 km de alcance (en inglés)
• Listado de tarjetas Wi-Fi soportadas en Linux (en inglés)
• i-Wireless Proyecto que estudia las interferencias de las redes Wi-Fi.
• www.quewifi.es Proyecto web sobre google maps que muestra redes wifi y foneras
Obtenido de "http://es.wikipedia.org/wiki/Wi-Fi"
Red inalámbrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Las redes inalámbricas (en inglés wireless network) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas.
Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional.
Contenido
[ocultar]
• 1 Tipos
• 2 Características
• 3 Aplicaciones
• 4 Véase también
Tipos [editar]
Según su cobertura, se pueden clasificar en diferentes tipos:
• WPAN (Wireless Personal Area Network)
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.
Cobertura y estándares
• WLAN (Wireless Local Area Network)
En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.
• WMAN (Wireless Metropolitan Area Network, Wireless MAN)
Para redes de área metropolitana se encuentran tecnologías basadas en WiMax (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMax es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).
• WWAN (Wireless Wide Area Network, Wireless WAN)
En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).
Características [editar]
Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:
Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000 Hz.
Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.
Aplicaciones [editar]
• Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).
• Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad o otras características de objetos remotos) y para la televisión digital terrestre.
• Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
• Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.
Véase también [editar]
• Comunicación inalámbrica
• Red de computadoras
• Ingeniería de telecomunicación
• Red por microondas
• Red por radio
Nanotecnología
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Representación animada de un nanotubo de carbono
La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).
nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Contenido
[ocultar]
• 1 Definición
• 2 Historia
• 3 Inversión
• 4 Ensamblaje interdisciplinario
• 5 Nanotecnología avanzada
• 6 Futuras aplicaciones
• 7 Riesgos potenciales
o 7.1 Sustancias viscosas
o 7.2 Veneno y Toxicidad
o 7.3 Armas
• 8 Véase también
• 9 Referencias
• 10 Enlaces externos
Definición [editar]
La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.
Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.
Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.
Historia [editar]
El ganador del premio Nobel de Física (1965), Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado Abajo hay espacio de sobra (There's Plenty of Room at the Bottom).
Otro hombre de esta área fue Eric Drexler quien predijo que la nanotecnología podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosísimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion de otros expertos, como Richard Smalley.
Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día los encontramos en todos nuestros hogares y que sin ellos no podríamos vivir. Pero hay que decir que este tipo de moléculas se les puede considerar “grandes”...
Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas que se encontrarán en nuestro organismo.
No fue sino hasta principios de la década de los cincuenta cuando Rosalind Franklin, James Dewey Watson y Francis Crick propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomó la importancia de las moléculas como determinantes en los procesos de la vida.
Hoy en día la medicina se le da más interés a la investigación en el mundo microscópico ya que en este se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología. inmunología, fisiología, en fin casi todas las ramas de la medicina.
Con todos estos avances han surgido también nuevas ciencias como es la ingeniería genética que hoy en día todos han oído escuchar acerca de las repercusiones que puede traer la humanidad como es la clonación o la mejora de especies. Entre estas ciencias también se encuentra otras no muy conocidas como es la nanotecnología, a la cual se le puede definir como aquella que se dedica a la fabricación de la tecnología en miniatura.
La nanotecnología, a diferencia de la ingeniería genética, todavía no esta en pasos de desarrollo; Se le puede considerar como “ una ciencia teórica” ya que todavía no se le ha llevado a la practica ya que aún no es viable, pero las repercusiones que acarreara para el futuro son inmensas.
Inversión [editar]
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.
Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.
En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.
Ensamblaje interdisciplinario [editar]
La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.
Una posible lista de ciencias involucradas sería la siguiente:
• Química (Moleculares y computacional)
• Bioquímica
• Biología molecular
• Física
• Electrónica
• Informática
• Matemáticas
Nanotecnología avanzada [editar]
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.
A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.
Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.
Futuras aplicaciones [editar]
Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las catorce aplicaciones más prometedoras de la nanotecnología son:
• Almacenamiento, producción y conversión de energía.
• Armamento y sistemas de defensa.
• Producción agrícola.
• Tratamiento y remediación de aguas.
• Diagnóstico y cribaje de enfermedades.
• Sistemas de administración de fármacos.
• Procesamiento de alimentos.
• Remediación de la contaminación atmosférica.
• Construcción.
• Monitorización de la salud.
• Detección y control de plagas.
• Control de desnutrición en lugares pobres
• Informática.
• Alimentos transgénicos
Riesgos potenciales [editar]
Sustancias viscosas [editar]
Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno.
Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.
Veneno y Toxicidad [editar]
A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o ingeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos.
Hay una posibilidad que las nanopartículas en agua potable pudieran ser dañinas para los humanos y otros animales. Las células de colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, haciéndolas transparentes, al contrario de las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas.
Armas [editar]
La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación EM para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras.
La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceces. Como dato la unión europea produce 29.64% de nanotecologia mundial otro 29 Estados Unidos y el resto pequenos países. Memoria:
En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla.
La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).1 El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy comercialmente.
Véase también [editar]
• Portal:Tecnología Contenido relacionado con Tecnología.
• Nanociencia
• Nano (prefijo)
Referencias [editar]
1. ↑ Waldner, Jean-Baptiste (2008). Nanocomputers and Swarm Intelligence. ISTE John Wiley & Sons, p172.
Enlaces externos [editar]
• Wikimedia Commons alberga contenido multimedia sobre Nanotecnología.
• Centro de Ciencia y Tecnología Nanoescalar en Bogotá - Colombia.
• "Red Española de Nanotecnología", Sitio web sobre la Red Española de Nanotecnología coordinada por el Consejo Superior de Investigaciones Científicas y la Fundación Phantoms.
• Artículo sobre el tema en el No. 6 de la Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación.
• "La nanotecnología: un rápido panorama", artículo didáctico sobre la nanotecnología, sus escalas y sus aplicaciones.
• Riesgos sanitarios de la nanotecnología resumen de un dictamen del CCRSERI de la Comisión Europea (2006)
• Promesas y Peligros de la Nanotecnología
• Medicina nanológica - Aplicaciones médicas de las nanotecnologías Informe del Grupo ETC
jueves, 5 de febrero de 2009
Un poco de teoría...
La arquitectura de los Phenom X3 es idéntica a la de los X4, aunque claro, lógicamente cuenta con un core menos, y eso conlleva a una menor cantidad de cache general, pero dada a que esta se encuentra asignada individualmente sobre cada core, poco importa a la hora de analizar diferencias entre un X3 y un X4.Clave: VC-55117PC Marca: EVGA Comprar y Ver Precio: [ Click Aquí ]Las unidades de procesamiento de gráficos NVIDIA® GeForce® serie 8 redefinen la experiencia de juego en PC.
Características-
Frecuencia de reloj de núcleo (MHz) 500 - Frecuencia de reloj de sombreado (MHz) 1200 - Frecuencia de reloj de memoria (MHz) 800 - Cantidad de memoria 640MB - Interfaz de memoria 320-bit - Ancho de banda de memoria (GB/seg) 64 - Tasa de relleno de texturas (mil millones/seg) 24 - La tecnología NVIDIA PureVideo™ HD2 proporciona una calidad de imagen insuperable para películas Blu-ray y HD DVD - Compatible con Windows XP y Vista - Velocidad de GPU de 500 MHz - 96 Pixel Pipelines - Salidas de Video DVI-I, DVI-I, HDTV - Resolución de 2048 x 1536 x 32bit x85Hz Max Analog - Resolución de 2560 x 1600 Max Digital - Requerimiento minimo de una fuente de poder de 400 Watt - Los procesadores de gráficos NVIDIA serie 8 son esenciales para acelerar la mejor experiencia de Windows™ Vista - Puerto PCI-Express 16x - Compatible con Windows XP y Vista
Tarjeta de video XFX GF-8500GT 512MB PCI-e
Especificaciones TécnicasCaracterísticas / Especificaciones:Marca: XFXModelo: PV-T86J-UAHGInterface: PCI-EXPRESS X16Chipset NVIDIA GeForce™ 8500 GTStream Processors: 16Engine Clock : 500 MHz3D API: DirectX 10 OpenGL 2.0Memory Clock: 667 MHzMemory: 512 MBBus Type: PCI-EMemory Type: DDR2Memory Bus: 128 bitMemory Interface: 128 bitMemory Bandwidth: 12.8 GB/secShader Clock: 1096 MHzDual Link DVI - Supporting digital output up to 2560x1600 YesOutput Ports : DVI, VGA, TV-outShader Clock: 900 MHzFill Rate: 3.6 billion/secRAMDACs: 500 MHzCaracterísticas sobresalientes:HDTV ready , HDCP Ready , SLI ready , RoHS , Vista.
Pese a ser un concepto muy sencillo, la confusión en torno a los puntos por pulgada o ppp es enorme y los ejemplos de esto, numerosos: concursos en los que las bases indican “Las fotos deben presentarse a 800x600 píxeles y 240ppp”, páginas web en las que se pide que las fotos se suban a 72ppp, tiendas de fotografía que saben decirte a qué tamaño en centímetros podrías imprimir los negativos que ellos te digitalicen pero no a cuantos ppp sería la impresión ni cuantos megapixels tendría el archivo original…
Lo primero que debemos saber es que los puntos por pulgada NO son una unidad de medida del tamaño de una imagen. Los puntos por pulgada son sólamente el factor de conversión que nos permite pasar de píxeles, en una imagen digital, a centímetros, en una imagen impresa. Así de sencillo.
Por si la cosa no nos queda clara, es el momento de desglosar un poco más estas medidas:
El píxel es un cuadradito que constituye la menor unidad de medida del tamaño de una imagen digital. Por eso, al hablar de una imagen digital solemos mencionar su anchura y altura en píxeles. Por ejemplo 500 x 300px. En las pantallas de un dispositivo digital como podría ser el monitor del ordenador se puede ajustar una resolución indicada en píxeles, por ejemplo 1024 x 768px.
Un megapíxel, literalmente, equivale a un millón de píxeles. Por lo general, usamos esta medida para referirnos a la superficie de la imagen digital. De este modo, una fotografía digital que mida 3000 x 2000px, tiene 6.000.000 píxeles o, lo que es lo mismo, 6 megapíxeles.
El centímetro o la pulgada son unidades de medida que podemos utilizar para fotografías impresas, pero no para imágenes digitales. Una pulgada equivale a 2,54 centímetros.
Los puntos por pulgada (ppp) simplemente indican la cantidad de píxeles de una imagen digital que podemos colocar en una pulgada de imagen impresa. Dicho de otro modo, los ppp indican la resolución o densidad de puntos de una fotografía impresa.
La importancia práctica de esto es enorme. Podemos imprimir cualquier fotografía digital al tamaño que queramos, desde un centímetro, a varios metros, o incluso más. Lo que ocurre es que cuanto mayor sea la impresión, peor resolución tendrá, y esto lo notaremos especialmente si la miramos de cerca. ¿Por qué? Porque al ampliar el tamaño de impresión estamos poniendo muy pocos puntos en cada centímetro, mientras que con un tamaño de impresión menor tendríamos más puntos, y una mayor resolución.
Epson Expression 10000XL
Características Técnicas
TIPO DE SCANNER
Plano de sobremesa para imágenes en monocromo y color.
MÉTODO DE EXPLORACIÓN
Desplazamiento del cabezal de exploración.
DISPOSITIVO FOTOELÉCTRICO
CCD de 6 lineas alternativas (94.500 píxels)
TAMAÑO DE DOCUMENTOS
FB: 310 x 437 mm (12,2 x 17,2 pulgadas )ADF: 297 x 432 mm (11,7 x 17,0 pulgadas)TPU: 309 x 420 mm (12,2 x 16,5 pulgadas)
FUENTE DE LUZ
Una lámpara fluorescente de gas Xenon
RESOLUCIÓN DE EXPLORACIÓN
Principal: 2400 pppSecundaria: 4800 ppp
RESOLUCIÓN DE SALIDA
De 50 a 12800 ppp (saltos de 1 ppp)
ZOOM
del 50% al 200% (en pasos del 1%)
PROFUNDIDAD DE LOS PÍXELES
entrada de 16 bits/píxel; salida de 1 a 16 bits/pixel
VELOCIDAD DE EXPLORACIÓN (en borrador)
Documento reflectante de 1.200 pppDibujo LINEAL: 2,7 ms/líneaEscala de grises 2,7 ms/líneaColor 8,0 ms/líneaTransparencia: Diapositivas 16,0 ms/líneaNegativos 16,0 ms/línea
FUNCIONES DE PROCESAMIENTO DE IMÁGENES
Corrección gamma:2 niveles de CRT (A, B), 3 niveles de impresora (A, B, C), tabla definida por el usuarioCorrección del color: Impresora de impacto/ térmica / inyección de tinta, pantalla CRT, matriz definida por el usuarioBrillo: 7 nivelesDibujo lineal: Umbral fijo, TET (Tec. mejorada de texto)Semitono digital: Difusión de errores, tramado, definido por usuario Separación de áreas: AAS (Segmentación automática del área)
PLATAFORMAS ADMITIDAS
USB 1.1: Microsoft® Windows® 98 / Me / 2000 Professional / XP Home Edition / XP Professional. Mac OS® 9.1 o posterior, Mac OS® X 10.2 o posteriorUSB 2.0: Microsoft® Windows® XP Home Edition / XP Profes. / 2000 Profes., Mac OS® X 10.2.7 o posteriorIEEE1394 IEEE1394 (FireWire): Microsoft® Windows® Me / 2000 Profes. / XP Home Edition / XP ProfessionalMac OS® 9.1 o posterior, Mac OS® X 10.2 o posterior
CONECTORES
- USB 2.0 x 1- IEEE1394 (FireWire) - Slot para interface de red opcional
DIMENSIONES Y PESO
656 x 458 x 158 mm. 14,5 Kg.
CONSUMO
Aprox. 45W en funcionamientoAprox. 6 W en modo de reposo
GARANTÍA
EPSON, opción de ampliar a 3 años con el programa EPSON COVERPLUS +
OPCIONES
B12B813213 Alimentador de hojas A3 B12B808392 EPSON Network Image Express B12B813363 Unidad de transparencies A3 SEEIB1070 Extensión de garantía a 3 años
Especificaciones de la Best Buy Easy TV
Las especificaciones de la Easy TV son las propias de una tarjeta sintonizadora de gama media-baja, bastante acordes con su precio (aunque puede que nos ofrezca un poco más de lo que el precio indica).
Éstas son:
Ventana redimensionable desde 32x16 píxels hasta pantalla completa
Capacidad de sintonización de hasta 125 canales (preparada para cable TV)
Sintonización y escaneo automáticos (con tan solo pulsar una tecla)
Función "mute" con lo que podremos desactivar el sonido en cualquier momento
Compatible con formato AVI para la captura de secuencias
Calidad YUV 4:2:2 en formato RGB de 15, 24 y 32 bits por píxel
Entradas Coaxial (antena), Vídeo Compuesto (RCA) y S-Video (SVHS)
Compatible con Microsoft NetMeeting
No requiere conexión a la tarjeta de vídeo
Tecnología PCI
Soporta señal de vídeo NTSC (USA) o PAL (Europa).
Incluye auriculares con micrófono y mando a distancia
Pero vamos a abrir la caja, para ver realmente con lo que nos encontramos.
MPG: que es un formato de archivo que permite almacenar archivos de sonido e imagen (Videos Musicales con una compresión de datos increíble, puedes visualizarlos con el Reproductor multimedia de Windows.
3GP (3rd Generation Partnership, en español Asociación de Tercera Generación), es un contenedor multimedia (o formato de archivos) usado por teléfonos móviles para almacenar multimedia (audio y video). Este formato de archivo es una versión simplificada del “ISO 14496-1 Media Format”, que es similar al formato de Quicktime. 3GP guarda video como MPEG-4 o H.263.El audio es almacenado en los formatos AMR-NB o AAC-LC.
AVI es un formato de archivo contenedor de audio y vídeo lanzado por Microsoft en 1992
Windows Media Audio o WMA es un formato de compresión de audio con pérdida, aunque recientemente se ha desarrollado de compresión sin pérdida
Ogg es un formato de archivo contenedor multimedia, desarrollado por la Fundación Xiph.org y es el formato nativo para los códecs multimedia que también desarrolla Xiph.org.
El formato es libre de patentes y abierto al igual que toda la tecnología de Xiph.org, diseñado para dar un alto grado de eficiencia en el "streaming" y la compresión de archivos
WAV (o WAVE), apócope de WAVEform audio format, es un formato de audio digital normalmente sin compresión de datos desarrollado y propiedad de Microsoft y de IBM que se utiliza para almacenar sonidos en el PC, admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo, su extensión es .wav.
Windows vienna
Aún no se sabe mucho sobre la nueva versión de Windows Vienna), pero en los foros de MSDN se han filtrado algunos detalles sobre ella y sobre Internet Explorer 8.
Parece que los foros de la red de desarrolladores de Microsoft (MSDN) descubrieron un par de hilos de discusión en el que en cierto momento se desvelaron algunas de las futuras características de Windows 7 / Vienna.
Las dos funcionalidades de las que se hablaba en aquellos dos posts - ahora eliminados, 1 y 2 - eran la inclusión de los escritorios virtuales y la posibilidad de reorganizar elementos de la barra de tareas y moverlos de un lado a otro.
En el caso de Internet Explorer 8, parece que dos de las funcionalidades actuales de Firefox serán integradas en el futuro navegador de Microsoft. Se trata de la función de deshacer el cerrar una pestaña (para que reaparezca algo que habíamos cerrado sin querer) y además se podrá salvar y restaurar una sesión de navegación como en Firefox.
miércoles, 4 de febrero de 2009
MS-DOS (Micro Soft Disk Operating System - Sistema Operativo en Disco) es un sistema patentado por Microsoft Corporation para computadoras personales PC's.
El MS-DOS es un sistema operativo monousuario y monotarea.
Al cumplir las dos condiciones antes mencionadas el procesador está en cada momento dedicado en exclusividad a la ejecución de un proceso, por lo que la planificación del procesador es simple y se dedica al único proceso activo que pueda existir en un momento dado.
MS-DOS es el que inicia la computadora y controla las actividades de la misma. Maneja la secuencia de las operaciones (flujo de datos), la entrada de datos, presentación en pantalla de programas e información desde y hacia varios componentes del hardware.
Manejo de archivos y directorios.
Mantenimiento de discos flexibles.
Configuración del equipo.
Optimización del uso de la memoria
Aumento de la velocidad de los programas
Categorías de Sistemas Operativos
El término multitarea se refiere a la capacidad del Sistema Operativo para correr mas de un programa al mismo tiempo. Existen dos esquemas que los programas de sistemas operativos utilizan para desarrollar Sistema Operativo multitarea, el primero requiere de la cooperación entre el Sistema Operativo y los programas de aplicación.
Los programas son escritos de tal manera que periódicamente inspeccionan con el Sistema Operativo para ver si cualquier otro programa necesita a la CPU, si este es el caso, entonces dejan el control del CPU al siguiente programa, a este método se le llama multitarea cooperativa y es el método utilizado por el Sistema Operativo de las computadoras de Machintosh y DOS corriendo Windows de Microsoft.
Con multitarea de asignación de prioridades el Sistema Operativo puede sustituir en cualquier momento el proceso que esta corriendo y reasignar el tiempo a una tarea de mas prioridad. Unix OS-2 y Windows NT emplean este tipo de multitarea.
Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo:
Mediante conexión de terminales a través de puertos seriales
Mediante Redes.
Multiproceso
Al usar una computadora con capacidades de multiproceso incrementamos su velocidad de respuesta y procesos. Casi todas las computadoras que tienen capacidad de multiproceso ofrecen una gran ventaja.
Multiproceso asimétrico:
Windows NT de Microsoft soporta multiproceso simétrico.
Sistemas Operativos más comunes.
MS-DOS
La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.
Cuando Intel liberó el 80286, DOS se hizo tan popular y firme en el mercado que DOS y las aplicaciones DOS representaron la mayoría del mercado de software para PC.
En aquel tiempo, la compatibilidad IBM, fue una necesidad para que los productos tuvieran éxito, y la "compatibilidad IBM" significaba computadoras que corrieran DOS tan bien como las computadoras IBM lo hacían.
OS/2
Después de la introducción del procesador Intel 80286, IBM y Microsoft reconocieron la necesidad de tomar ventaja de las capacidades multitarea de esta CPU. Se unieron para desarrollar el OS/2, un moderno Sistema Operativo multitarea para los microprocesadores Intel. Sin embargo, la sociedad no duró mucho.
IBM continuó el desarrollo y promoción del OS/2.
Es un sistema operativo que fue creado a principios de los setentas por los científicos en los laboratorios Bell. Fue específicamente diseñado para proveer una manera de manejar científica y especializadamente las aplicaciones computacionales. Este Sistema Operativo se adapto a los sistemas de computo personales así que esta aceptación reciente lo convierte en un sistema popular.
La familia de microcomputadoras de Apple Macintosh y su sistema operativo define otra plataforma importante. Las PC de Macintosh, que se basan en la familia de microprocesadores de Motorola, usan la arquitectura de Bus de 32 bits. La plataforma para Macintosh incluye muchas capacidades sofisticadas que comprende la multitarea, una GUI, la memoria virtual y la capacidad para emular la plataforma MS-DOS.
Estos tipos de sistemas son muy simples, porque todos los dispositivos de entrada, salida y control dependen de la tarea que se esta utilizando, esto quiere decir, que las instrucciones que se dan, son procesadas de inmediato; ya que existe un solo usuario. Y están orientados principalmente por los microcomputadores.
Funciona en: Windows 95, Windows 98, Windows NT, Windows 2000, Windows ME, Windows XP, Windows 2003
Descargas: 28.336 descargas
Autor: Iolo
Tamaño: (479 Kb)
Idioma: Inglés
Requisitos de System Mechanic
- 64MB de RAM- 6MB espacio en disco duro- Resolución 800x600
martes, 3 de febrero de 2009
antitroyno
a-squared
Proteja su PC de ataques de piratas informáticos basados en programas maliciosos.
a-squared usa un enfoque exclusivo para enfrentarse a troyanos, gusanos, dialers, programas que introducen publicidad y programas espía, proporcionando un complemento indispensable a cualquier sistema de protección, tanto en un PC privado como en una red de empresa. La tecnología exclusiva Malware-IDS proporciona la primera línea de defensa contra ataques individuales por parte de troyanos especializados que no son reconocidos por las herramientas antivirus convencionales.
Plataformas:
Malware
Analiza su computadora buscando software malicioso (Malware), incluyendo Caballos de Troya, Marcadores, Gusanos, Programas Espía, Programas Publicitarios y más. a-squared Free está especializado en encontrarlos y eliminarlos en forma segura. El análisis de disco verifica todos los archivos en su disco de sistema buscando Malware. El escáner analiza rastros de software espía. Actualmente más de 440,000 diferentes tipos de Malware pueden ser detectados y eliminados. La actualización gratuita diaria en línea provee la mejor protección.
NIVA
RegRun NIVA es una herramienta contra componentes troyanos, rootkits, software propaganda, software espía. RegRun NIVA resuelve tres tareas principales: realiza copias de seguridad del registro de configuraciones y archivos importantes, ayuda a detectar si su computador esta infectado, ayuda a remover virus de su computador. RegRun es una herramienta necesaria para prevenir infecciones y remover parasitos
Anti-Trojan
Shield es un bloqueador avanzado y altamente efectivo contra caballos de Troya, gusanos, virus, evasores de seguridad, controles activex maliciosos y programillas (aplicativos) Java El programa busca, detecta y remueve efectivamente los archivos maliciosos mientras mantiene un nivel excepcional de privacidad personal y seguridad. Sin esta herramienta, debería preocuparse de los nuevos troyanos y virus, pero con Anti-Trojan Shield no necesita preocuparse.
IntroducciónComboFix es un programa creado por sUBs, que chequea su sistema en busca de malwares conocidos, y de ser encontrados, intenta eliminar automáticamente estas infecciones. Además de ser capaz de eliminar una gran cantidad de los más comunes y corrientes malwares, ComboFix también genera un reporte al terminar que contiene gran cantidad de información que un ayudante con experiencia puede utilizar para diagnosticar, tomar muestras de infecciones que no han sido automáticamente eliminadas, y remover dichas infecciones.
Debido al poder de esta herramienta se recomienda enfáticamente que no utilice ComboFix sin supervisación ya que el mal uso puede impedir el funcionamiento normal del sistema. Usted deberá usar esta guía para descargar y ejecutar ComboFix para luego colocar el reporte en un foro donde existan ayudantes que puedan entenderlo y diagnosticarlo. Estos ayudantes luego podrán ayudarle a limpiar su sistema de infecciones para que el sistema pueda funcionar de forma correcta nuevamente.Por favor, tenga en cuenta que esta guía es la única guía autorizada para el uso de ComboFix y no puede ser copiada sin los permisos de BleepingComputer.com y sUBs.
También se debe entender que el uso de ComboFix es bajo su propio riesgo.
Utilizando ComboFixLo primero que deberá hacer es imprimir esta guía ya que será necesario cerrar todos los programas que se encuentren abiertos antes de utilizar ComboFix, incluyendo navegadores de Internet.Luego debería descargar ComboFix de una de las siguientes URLs:
BleepingComputer.com
ForoSpyware.com
GeeksTogo.com
Para descargar ComboFix, simplemente haga clic en cualquiera de los enlaces mencionados
La mayor parte de nuestros programas pueden descargar e instalar actualizaciones dentro de la interfaz del programa. Si está conectado a Internet, las actualizacioens de la base de datos de virus se descargan e instalan automáticamente sin necesidad de acción alguna por parte del usuario. La presencia de una nueva versión en nuestros servidores es controlada al establecerse la conexión a Internet, y posteriormente cada cuatro horas. Por favor, descargue el siguiente fichero si realmente lo necesita (e.g. si su ordenador no dispone de conexión a Internet).
Las actualizaciones de NOD32
son automáticas, y no requieren ser descargadas manualmente por el usuario. Esto es tanto para las versiones comerciales como las de evaluación (las gratuitas por 30 dias), sin embargo aquí podrá encontrar alguna forma opcional para realizar la actualización.Si tu Antivirus NOD32 se encuentrá realizando las actualizaciones correctamente deberías tener esta versión de la firma de virus v.3820 (20090202)
Kaspersky
ofrece 4 tipos de bases de datos de antivirus: diarias, urgentes, semanales y acumulativas.
Cada actualización acumulativa sobrescribe todas las preexistentes acumulativas, semanales y
diarias. (algunas excepciones están descritas a continuación) y cada actualización semanal sobrescribe todas las preexistentes actualizaciones diarias.
Las actualizaciones acumulativas aseguran la optimización de las definiciones de virus, como también los métodos de búsqueda y de cura, por tanto la cantidad de definiciones de virus en "actualizaciones acumulativas previas+ todas las actualizaciones semanales" puede ser mayor que la última actualización acumulativa.
Actualizaciones diarias
Estas actualizaciones son lanzadas 24 veces al día - las 24 horas.
Las actualizaciones diarias están publicadas en el archivo DAILY.ZIP y están disponibles a través de Internet desde los sitios de soporte de Kaspersky.
Actualizaciones urgentes
Actualizaciones urgentes son lanzadas como respuesta a nuevas y potenciales amenazas a cualquier hora del día.
Estas son caracterizadas fundamentalmente como un tipo de actualización diaria (DAILY.ZIP).
Actualizaciones semanales
Las actualizaciones semanales ocurren al final de cada semana laboral.Las actualizaciones semanales ocurren al final de cada semana laboral.
Usualmente tales actualizaciones incluyen la base de datos de virus. Las descripciones relacionadas se encuentran en los archivos UP*.TXT, y los archivos suplementarios se encuentran en AVP.SET.
Algunas veces los archivos de las actualizaciones semanales incluyen módulos corregidos o suplementados, los cuales vienen con el main set, ej.: EXTRACT.AVC o UNPACK.AVC.
Actualizaciones acumulativas
Estas son lanzadas desde una a tres veces al mes dependiendo del estado de virus mundial.
Las bases de datos de los Antivirus son completamente actualizadas cuando la actualización acumulativa es publicada.
Cuando se actualiza manualmente, es necesario re-escribir el set de la base de datos, borrando todos los módulos antiguos y no sólo el archivo AVPYYMM.AVC. Esto es necesario porque los contenidos de la actualización usualmente cambian. Sin embargo, el módulo principal permanece sin cambios.
Usted puede recibir el mensaje " Objeto no linkeado", entonces usted debe revisar la correspondencia de las fechas de creación de la base de datos principal y de todas las bases de datos modificadas. (Usualmente KERNEL.AVC).
En cualquier caso la base de datos en uso debiera tener una fecha no anterior que la fecha para el archivo AVPYYMM.AVC, como indicado en el último archivo AVP.SET.