Historia [editar]
Nokia y Symbol Technologies crearon en 1999 una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003 . El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos.
De esta forma en abril de 2000 WECA certifica la interoperatibilidad de equipos según la norma IEEE 802.11b bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos.
En el año 2002 la asociación WECA estaba formada ya por casi 150 miembros en su totalidad.
La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet).
Estándares existentes [editar]
Artículo principal: IEEE 802.11
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:
• Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente.
• En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
• Un primer borrador del estándar IEEE 802.11n trabaja de forma simultanea a 2.4GHz y a 5,4Ghz y permite alcanzar velocidades de 300Mbps, mediante la utilizacion sumultanea del 50% de los canales disponibles, en las dos bandas libres. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.
Seguridad y fiabilidad [editar]
Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en la conexiones de larga distancia (mayor de 100 metros), en realidad Wifi esta diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance esta expuesto a un excesivo riesgo de inteferencias.
Un muy elevado porcentaje de redes son instaladas sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o muy vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:
• Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP y el WPA, que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos
• WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire.
• WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
• IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
• Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados.
• Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
• El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.
Dispositivos [editar]
Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.
• Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
• Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.
• Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
• Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
Tarjeta USB para Wi-Fi.
o Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
o Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
o Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no esta estandarizada.
o También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".1
Ventajas y desventajas [editar]
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
• Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
• Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
• La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
• Una de las desventajas que tiene el sistema Wi-Fi es la pérdida de velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
• La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica ya que sigue siendo difícil para lo que representa la seguridad de una empresa estar "seguro". Uno de los puntos débiles (sino el gran punto débil) es el hecho de no poder controlar el área que la señal de la red cubre, por esto es posible que la señal exceda el perímetro del edificio y alguien desde afuera pueda visualizar la red y esto es sin lugar a dudas una mano para el posible atacante.
• Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.
Véase también [editar]
• Ad Hoc
• Bluetooth
• FON
• Fritz!Box
• GPRS y HSDPA
• Guifi.net
• Hotspot
• LMDS
• Organizaciones Certificadoras y Reguladoras Inalámbricas
• RedLibre
• Tarifa plana para Wi-Fi
• UMTS
• Warchalking (entizado de guerra).
• WDS
• WiBro
• WISP
• WiMAX
• WRT54G
• ZigBee
• Power Line Communications
Referencias [editar]
1. ↑ Linux wireless LAN support http://linux-wless.passys.nl
Enlaces externos [editar]
• En 2007, uno de cada dos internautas irá sin cables
• Wi-Fi Alliance (en inglés)
• Wireless Fidelity (Wi-Fi) - Specifications (en inglés)
• Sobre el significado de la denominación Wi-Fi (en inglés)
• Sobre el significado de la denominación Wi-Fi (en español, traducción parcial del artículo anterior)
• Wi-Fi de 500 km de alcance (en inglés)
• Listado de tarjetas Wi-Fi soportadas en Linux (en inglés)
• i-Wireless Proyecto que estudia las interferencias de las redes Wi-Fi.
• www.quewifi.es Proyecto web sobre google maps que muestra redes wifi y foneras
Obtenido de "http://es.wikipedia.org/wiki/Wi-Fi"
Red inalámbrica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Las redes inalámbricas (en inglés wireless network) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas.
Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional.
Contenido
[ocultar]
• 1 Tipos
• 2 Características
• 3 Aplicaciones
• 4 Véase también
Tipos [editar]
Según su cobertura, se pueden clasificar en diferentes tipos:
• WPAN (Wireless Personal Area Network)
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.
Cobertura y estándares
• WLAN (Wireless Local Area Network)
En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.
• WMAN (Wireless Metropolitan Area Network, Wireless MAN)
Para redes de área metropolitana se encuentran tecnologías basadas en WiMax (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMax es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).
• WWAN (Wireless Wide Area Network, Wireless WAN)
En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).
Características [editar]
Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:
Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000 Hz.
Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.
Aplicaciones [editar]
• Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).
• Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad o otras características de objetos remotos) y para la televisión digital terrestre.
• Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
• Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.
Véase también [editar]
• Comunicación inalámbrica
• Red de computadoras
• Ingeniería de telecomunicación
• Red por microondas
• Red por radio
Nanotecnología
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Representación animada de un nanotubo de carbono
La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Para hacerse una idea de lo pequeño que puede ser un nanobot, más o menos un nanobot de 50 nm tiene el tamaño de 5 capas de moléculas o átomos (depende de qué esté hecho el nanobot).
nano- es un prefijo griego que indica una medida, no un objeto, de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
Contenido
[ocultar]
• 1 Definición
• 2 Historia
• 3 Inversión
• 4 Ensamblaje interdisciplinario
• 5 Nanotecnología avanzada
• 6 Futuras aplicaciones
• 7 Riesgos potenciales
o 7.1 Sustancias viscosas
o 7.2 Veneno y Toxicidad
o 7.3 Armas
• 8 Véase también
• 9 Referencias
• 10 Enlaces externos
Definición [editar]
La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad. Las nanotecnologías prometen beneficios de todo tipo, desde aplicaciones médicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo, el concepto de nanotecnología aún no es muy conocido en la sociedad.
Un nanómetro es la mil millonésima parte de un metro (10^(-9) metros). Para comprender el potencial de esta tecnología es clave saber que las propiedades físicas y químicas de la materia cambian a escala nanométrica, lo cual se debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad, entre otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.
Aunque en las investigaciones actuales con frecuencia se hace referencia a la nanotecnología (en forma de motores moleculares, computación cuántica, etcétera), es discutible que la nanotecnología sea una realidad hoy en día. Los progresos actuales pueden calificarse más bien de nanociencia, cuerpo de conocimiento que sienta las bases para el futuro desarrollo de una tecnología basada en la manipulación detallada de las estructuras moleculares.
Historia [editar]
El ganador del premio Nobel de Física (1965), Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959 titulado Abajo hay espacio de sobra (There's Plenty of Room at the Bottom).
Otro hombre de esta área fue Eric Drexler quien predijo que la nanotecnología podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas poderosísimas. Creador del Foresight Institute y autor de libros como Máquinas de la Creación Engines of Creation muchas de sus predicciones iniciales no se cumplieron, y sus ideas parecen exageradas en la opinion de otros expertos, como Richard Smalley.
Pero estos conocimientos fueron más allá ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día los encontramos en todos nuestros hogares y que sin ellos no podríamos vivir. Pero hay que decir que este tipo de moléculas se les puede considerar “grandes”...
Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas que se encontrarán en nuestro organismo.
No fue sino hasta principios de la década de los cincuenta cuando Rosalind Franklin, James Dewey Watson y Francis Crick propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomó la importancia de las moléculas como determinantes en los procesos de la vida.
Hoy en día la medicina se le da más interés a la investigación en el mundo microscópico ya que en este se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología. inmunología, fisiología, en fin casi todas las ramas de la medicina.
Con todos estos avances han surgido también nuevas ciencias como es la ingeniería genética que hoy en día todos han oído escuchar acerca de las repercusiones que puede traer la humanidad como es la clonación o la mejora de especies. Entre estas ciencias también se encuentra otras no muy conocidas como es la nanotecnología, a la cual se le puede definir como aquella que se dedica a la fabricación de la tecnología en miniatura.
La nanotecnología, a diferencia de la ingeniería genética, todavía no esta en pasos de desarrollo; Se le puede considerar como “ una ciencia teórica” ya que todavía no se le ha llevado a la practica ya que aún no es viable, pero las repercusiones que acarreara para el futuro son inmensas.
Inversión [editar]
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.
Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como IBM, Hewlett-Packard (HP), NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.
En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania y Reino Unido en la Universidad Autónoma de Madrid.
Ensamblaje interdisciplinario [editar]
La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.
Una posible lista de ciencias involucradas sería la siguiente:
• Química (Moleculares y computacional)
• Bioquímica
• Biología molecular
• Física
• Electrónica
• Informática
• Matemáticas
Nanotecnología avanzada [editar]
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.
A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamente optimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de la ingeniería mecánica.
Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.
Futuras aplicaciones [editar]
Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las catorce aplicaciones más prometedoras de la nanotecnología son:
• Almacenamiento, producción y conversión de energía.
• Armamento y sistemas de defensa.
• Producción agrícola.
• Tratamiento y remediación de aguas.
• Diagnóstico y cribaje de enfermedades.
• Sistemas de administración de fármacos.
• Procesamiento de alimentos.
• Remediación de la contaminación atmosférica.
• Construcción.
• Monitorización de la salud.
• Detección y control de plagas.
• Control de desnutrición en lugares pobres
• Informática.
• Alimentos transgénicos
Riesgos potenciales [editar]
Sustancias viscosas [editar]
Recientemente, un nuevo estudio ha mostrado como este peligro de la “sustancia viscosa gris” es menos probable que ocurra de como originalmente se pensaba. K. Eric Drexler considera un escenario accidental con sustancia viscosa gris improbable y así lo declara en las últimas ediciones de Engines of Creation. El escenario sustancia viscosa gris clamaba la Tree Sap Answer: ¿Qué oportunidades existen de que un coche pudiera ser mutado a un coche salvaje, salir fuera de la carretera y vivir en el bosque solo de savia de árbol?. Sin embargo, se han identificado otros riesgos mayores a largo plazo para la sociedad y el entorno.
Una variante de esto es la “Sustancia viscosa verde”, un escenario en que la nanobiotecnología crea una máquina nanométrica que se autoreplica que consume todas las partículas orgánicas, vivas o muertas, creando un cieno -como una masa orgánica muerta. En ambos casos, sin embargo, sería limitado por el mismo mecanismo que limita todas las formas vivas (que generalmente ya actúan de esta manera): energía disponible.
Veneno y Toxicidad [editar]
A corto plazo, los críticos de la nanotecnología puntualizan que hay una toxicidad potencial en las nuevas clases de nanosustancias que podrían afectar de forma adversa a la estabilidad de las membranas celulares o distorsionar el sistema inmunológico cuando son inhaladas o ingeridas. Una valoración objetiva de riesgos puede sacar beneficio de la cantidad de experiencia acumulada con los materiales microscópicos bien conocidos como el hollín o las fibras de asbestos.
Hay una posibilidad que las nanopartículas en agua potable pudieran ser dañinas para los humanos y otros animales. Las células de colon expuestas a partículas de dióxido de titanio se ha encontrado que se descomponen a mayor velocidad de la normal. Las nanopartículas de dióxido de titanio se usan normalmente en pantallas de sol, haciéndolas transparentes, al contrario de las grandes partículas de dióxido de titanio, que hacen a las pantallas de sol parecer blancas.
Armas [editar]
La militarización de la nanotecnología es una aplicación potencial. Mientras los nanomateriales avanzados obviamente tienen aplicaciones para la mejora de armas existentes y el hardware militar a través de nuevas propiedades (tales como la relación fuerza-peso o modificar la reflexión de la radiación EM para aplicaciones sigilosas), y la electrónica molecular podría ser usada para construir sistemas informáticos muy útiles para misiles, no hay ninguna manera obvia de que alguna de las formas que se tienen en la actualidad o en un futuro próximo puedan ser militarizadas más allá de lo que lo hacen otras tecnologías como la ingeniería genética. Mientras conceptualmente podríamos diseñar que atacasen sistemas biológicos o los componentes de un vehículo (es decir, un nanomáquina que consumiera la goma de los neumáticos para dejar incapaz a un vehículo rápidamente), tales diseños están un poco lejos del concepto. En términos de eficacia, podrían ser comparados con conceptos de arma tales como los pertenecientes a la ingeniería genética, como virus o bacterias, que son similares en concepto y función práctica y generalmente armas tácticamente poco atractivas, aunque las aplicaciones para el terrorismo son claras.
La nanotecnología puede ser usada para crear dispositivos no detectables – micrófonos o cámaras de tamaño de una molécula, y son posibilidades que entran en el terreno de lo factible. El impacto social de tales dispositivos dependería de muchos factores, incluyendo quién ha tenido acceso a él, cómo de bien funcionan y cómo son usados. E.U.A. ha aportado gran parte de estos avances al igual que los chinos y franceces. Como dato la unión europea produce 29.64% de nanotecologia mundial otro 29 Estados Unidos y el resto pequenos países. Memoria:
En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la información e incluso reescribirla.
La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este sistema —no alcanzado aún— es de alrededor de 25 gigabits por centímetro cuadrado (64 gigabytes/in²).1 El sistema de matriz de agujas descripto más arriba, bautizado "Millipede" (Miriápodo, por tener mil patas), ofrece 35 gigabits por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como 40 veces lo que está disponible hoy comercialmente.
Véase también [editar]
• Portal:Tecnología Contenido relacionado con Tecnología.
• Nanociencia
• Nano (prefijo)
Referencias [editar]
1. ↑ Waldner, Jean-Baptiste (2008). Nanocomputers and Swarm Intelligence. ISTE John Wiley & Sons, p172.
Enlaces externos [editar]
• Wikimedia Commons alberga contenido multimedia sobre Nanotecnología.
• Centro de Ciencia y Tecnología Nanoescalar en Bogotá - Colombia.
• "Red Española de Nanotecnología", Sitio web sobre la Red Española de Nanotecnología coordinada por el Consejo Superior de Investigaciones Científicas y la Fundación Phantoms.
• Artículo sobre el tema en el No. 6 de la Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación.
• "La nanotecnología: un rápido panorama", artículo didáctico sobre la nanotecnología, sus escalas y sus aplicaciones.
• Riesgos sanitarios de la nanotecnología resumen de un dictamen del CCRSERI de la Comisión Europea (2006)
• Promesas y Peligros de la Nanotecnología
• Medicina nanológica - Aplicaciones médicas de las nanotecnologías Informe del Grupo ETC
viernes, 6 de febrero de 2009
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario