lunes, 30 de noviembre de 2009

¿Problemas con tu computadora?

PC Doctor
TU PC ESTA LENTA, SE CUELGA, TIENE VIRUS, NO ENCIENDE
Tenemos el Soporte Técnico Especializado para PCs o Notebooks que necesita, si tienes problemas con tu computador. No te preocupes, Nosotros lo solucionamos. Atencion personalizada en su domicilio o empresa.
Fonos: 689-6990 / 445-1298 / Nextel: 133*1323  / Movistar: 996-192687
Email: pcdoctorperu@live.com


INSTALACION O MIGRACION DE SISTEMAS OPERATIVOS:
Windows XP, Vista, Seven, Linux, cambios de idioma, Instalación Programas (Office 2007, Open Office, Antivirus,etc) y mas.




FORMATEO Y RECUPERACION DE DATOS:
Archivos, Fotos, etc, de Disco Duro, o USB, dañados por virus o accidentes. Eliminación de Virus, Spyware, Adware.










INSTALAMOS Y CONFIGURAMOS REDES

LAN, Inalámbricas WiFi, Antenas, Access Point, Routers, Switches.




INSTALACION DE SISTEMAS DE VIDEOVIGILANCIA:

Camaras IP, Videograbadores Digitales, Monitoreo por Internet, Alarmas electrónicas con sensores.

martes, 24 de noviembre de 2009

Microsoft Office Professional Plus 2010 Beta




Recientemente Microsoft lanzó el Office 2010 Beta para suscriptores de MSDN y TechNet, pero ahora esta disponible al público. Puedes obtenerlo gratis usando el siguiente enlace:

Descarga GRATIS el Microsoft Office Professional Plus 2010 Beta

Incluye:

* Microsoft Word
* Microsoft Excel
* Microsoft PowerPoint
* Microsoft Access
* Microsoft Outlook
* Microsoft OneNote
* Microsoft InfoPath
* Área de trabajo de Microsoft SharePoint
* Microsoft Publisher
* Microsoft Communicator

Esta disponible en las version de 32 y 64 bits

Requerimientos minimos:

* Procesador a 500 MHz de 32 o 64 bits o superior
* 256 MB de memoria de sistema o más
* 3 GB de espacio disponible en disco
* Monitor con resolución 1024×768 o superior
* Unidad DVD-R/W

* Windows XP con Service Pack (SP) 3 (32 bits)
* Windows Vista con SP1 (32 o 64 bits)
* Windows Server 2003 R2 (32 o 64 bits)
* Windows Server 2008 con SP2 (32 o 64 bits)
* Windows 7 (32 o 64 bits)

Disparandole a un iPhone 3G



Aunque hay millones (según las ventas (?)) de felices poseedores de un iPhone, igualmente hay algunos con un rencor contra el, ya sea por las tarifas, por el App Store o porqué son “pro-open source”. Pero pegarle unos cuantos tiros a tú iPhone no me parece lo más “inteligente”.

Resulta que un chico sin cerebro, -por alguna razón, le pego cuatro tiros con una 9mm a su perfectamente funcional iPhone 3G. Para al finar terminar con el en una barbacoa.

En mi opinión el tipo se ha ganado 15 minutos de fama fue lo más estupido e inmaduro que pudo hacer, a menos que tenga mucha pasta no entiendo porqué lo hizo. Y como decía un comentarío del AppleWeblog:

“Vamos a ser realistas, una persona normal por mucho que odie a los productos de Apple o al iPhone, lo mas logico es que lo venda o regale a fulanito. Nadie tira el dinero a si por las buenas y ojo no estoy hablando de los “niños de papa.”

Comerciales de los nuevos iPOD Touch

Apple no deja de sorprende con su ingenio e innovacion. Antes de ver este comercial dudaba si podría competir con la DS y la PSP. La interacción con el acelerometro es realmente genial, y con unos graficos envidiables (gracias, openGL).

Google nos cuenta su historia en 2 minutos

La division inglesa de Google subió a su canal de Youtube un video que resumen, con una realización genial, los 11 años de Google, ¡En solo 2 minutos!

jueves, 19 de noviembre de 2009

¿Que es la Web 2.0?



La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología.
La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la realidad es que la evolución natural del medio realmente ha propuesto cosas más interesantes como lo analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este término en una conferencia en la que compartió una lluvia de ideas junto a Craig Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0:
  • La web es la plataforma
  • La información es lo que mueve al Internet
  • Efectos de la red movidos por una arquitectura de participación.
  • La innovación surge de características distribuidas por desarrolladores independientes.
  • El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo

La Web 2.0 con ejemplos

Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:
 

¿Qué tecnologías apoyan a la Web 2.0?

El Web 2.0 no significa precisamente que existe una receta para que todas nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias tecnologías que están utilizándose actualmente y que deberíamos de examinar con más cuidado en busca de seguir evolucionando junto al web.

Tecnologías que dan vida a un proyecto Web 2.0:

  • Transformar software de escritorio hacia la plataforma del web.
  • Respeto a los estándares como el XHTML.
  • Separación de contenido del diseño con uso de hojas de estilo.
  • Sindicación de contenidos.
  • Ajax (javascript ascincrónico y xml).
  • Uso de Flash, Flex o Lazlo.
  • Uso de Ruby on Rails para programar páginas dinámicas.
  • Utilización de redes sociales al manejar usuarios y comunidades.
  • Dar control total a los usuarios en el manejo de su información.
  • Proveer APis o XML para que las aplicaciones puedan ser manipuladas por otros.
  • Facilitar el posicionamiento con URL sencillos.

¿En qué nos sirve la Web 2.0?

El uso de el término de Web 2.0 está de moda, dándole mucho peso a una tendencia que ha estado presente desde hace algún tiempo. En Internet las especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es precisamente una tecnología, sino es la actitud con la que debemos trabajar para desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.
Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la única constante debe ser el cambio, y en Internet, el cambio debe de estar presente más frecuentemente.

Por Christian Van Der Henst S. de Maestros del Web

Novedades tecnológicas de CEATEC 2009 en Japón



La mayor feria de electrónica de Japón, CEATEC, cerró ayer sus puertas llevándose consigo las últimas novedades en pantallas planas, energías renovables, imágenes 3D y robótica; a pesar de que la crisis económica este año, provocó una reducción considerable de su tamaño.

Los visitantes pudieron experimentar en sus manos la próxima generación de alta velocidad de las comunicaciones móviles, como el WiMAX y LTE utilizando el estándar de telefonía móvil 3.9G, así como los teléfonos móviles con servicios de valor añadido tales como AR.

Destacó el Pabellón Verde tecnológico que presentó lo último en tecnologías avanzadas de conservación de energía tales como los vehículos futurísticos propulsados por pilas de combustible o energía eólica y solar (algunas de las cuales han hecho a Japón, líder mundial en la creación de una sociedad baja en la emisión de carbono).

También cosas locas y más industriales como un filtro Etalon de cristal. Un componente de los sistemas de telecomunicaciones ópticos para la transmisión de grandes volúmenes de datos, que impide que las longitudes de onda densa de la luz de interferir unos con otros mediante la detección de desviaciones entre las longitudes de onda múltiples.

Televisores tridimensionales sin necesidad de gafas, y televisión digital de alta definición con pantallas más planas, delgadas y compactas que nunca, fueron protagonistas ante los ciento cincuenta mil visitantes que asistieron, cuarenta mil menos que hace dos años.

Sony presentó en esta feria un televisor Bravia para imágenes en tres dimensiones, y una cámara que puede grabar películas también en 3D, que se espera llegue al mercado el año próximo. Hitachi, Panasonic y Sharp presentaron productos similares. Para el presidente de Sharp, Mikio Katayama, este formato “despegará en cualquier momento”, aunque no se comercializará hasta que esté listo un amplio y constante flujo de contenidos trideminsionales con los que disfrutar de esta tecnología.

Respecto a robótica destacó sin sorpresas Eporo de Nissan, un pequeño aparato con ruedas capaz de moverse de forma autónoma seleccionando el camino más corto y eficaz frente a obstáculos. La tecnología utilizada en ese robot de pequeñas dimensiones, es importante porque podría aplicarse a vehículos de mayor tamaño para evitar atascos, colisiones y hacer más eficiente y seguro el tráfico.

Pero también hubo robots humanoides, robots bicicleta y un sin fín de aparatitos “bien de arte y genio niponés”.

Fuente: Animejanai

"En el video se muestra como controla el repruductor multimedia con el movimiento de los ojos"

¿Que es TDT?



¿Qué es TDT?
La Televisión Digital Terrestre (TDT) es una nueva tecnología que hasta el 4 de abril de 2010, sustituirá a la Televisión Analógica convecional. En las transmisiones de TDT, la imagen, el sonido y los con adicionales se transforman en información digital, la cual es difundida a través de las ondas terrenales y recibida a través de las antenas de televisión convencionales previamente adaptadas. Por lo que NO es necesario comprarse una nueva antena como nos quieren hacer ver algunos establecimientos.

Ventajas de la TDT
- Recibir más canales de televisión.
- Calidad de imagen y sonido cercana a la del DVD.
- Más formatos:imagen panorámica(16/9),sonido envolvente, subtitulos, idiomas...
- Acceso a servicios y contenidos interactivos. Para esto es necesario que el decodificador esté preparado con el estándar MHP.
- Junto a los programas se podrán enviar todo tipo de datos, como información añadida para películas y documentales, y guías electrónicas de programación (conocidas por las siglas EPG) con las que programar grabaciones fácilmente.

¿Qué necesitamos?
- Un decodificador digital externo (STB) que permitirá que el actual televisor interprete la señal digital y la convierta en ’entendible’. Cuesta entre 50 y 200 euros. Hay televisores que ya traen este decodificador integrado. Lamentáblemente necesitas un descodificador para cada televisor en el que quieras ver la TDT.
- Los televisores analógicos podrán ser usados mientras los canales emitan señal analógica. Luego segirán siendo utiles siempre y cuando se utilice un decodificador de señal digital a analógica pero no se apreciará la alta calidad de imagen que ofrece la televisión digital. Luego no es necesario adquirir un nuevo televisor, a no ser que seamos sibaritas de la calidad de imagen. Aun así, la resolución que ofrece un televisor HDTV es mucho mayor que la da TDT.
- En las viviendas con antenas individuales no es necesario, en la mayoria de los casos, realizar ninguna adaptación de antena. Si no hay suficiente señal, quizás necesite un amplificador. En antenas colectivas si habrá que realizar una adaptación como indica el dibujo inferior. Si el edificio es anterior al año 1998, la instalación habría que cambiarla entera mientras que si es posterior, el cambio será parcial. Para estos casos recomendamos consultar con una empresa instaladora de telecomunicaciones experta en TV Digital y acreditada por el Ministerio de Industria, Turismo y Comercio, pues la nueva instalación deberá adpatarse a la legislación vigente.
- Tambien podemos ver TDT en nuestro ordenador con sintonizadoras instaladas en nuestra PC

Microsoft Surface, era táctil



Sin teclados, sin manuales... 30 pulgadas para tocar

Con vocación de servicio en áreas de planificación financiera, ocio u hoteles, Microsoft presenta en España Surface.Esta platataforma de 13.000 euros esconde un PC dentro de una mesa sobre la que se ubica una pantalla táctil multiusuarioul y multitoque que, además, es capaz de identificar ciertos dispositivos (a través de códigos) e interactuar con ellos. La máquina no integra un hardware muy potente (Intel Core 2 Duo a 2,2 GHz y gráfica de 256 Mbytes) y está gobernada por Vista. Su secreto está en la colocación de unas cámaras bajo la pantalla de polímero de 30" desarrollada por Microsoft capaces de reconocer los códigos de objetos tales como cámaras de fotos o teléfonos e intercambiar información. Al tiempo, la compañía ha hecho un gran esfuerzo en la interfaz de usuario, no sólo porque proporcione un entorno colaborativo en el que pueden operar varias personas simultáneamente, sino porque su empleo es muy intuitivo. María Garaña, presidenta de Microsoft España, asegura que han sabido recoger la forma natural con la que uno se relaciona con su entorno.



Fuente: www.microsoft.com/es

miércoles, 18 de noviembre de 2009

64 bits ¿Vale la pena?



 procesador de 64 bits

El paso de 16 a 32 biits fue un hito en la historia de los computadoras personales porque acompaño un cambio importante en la arquitectura de microprocesadores hacia el 80386.
Los cambios al pasar de 32 a 64 bist refieren al agregado de registros de 64-bits un aumento en la cantidad de memoria direccionable instrucciones SSE3 y
bitNX (no excute).
Sin embargo salvo en contadas excepciones no hay incrementos en el rendimiento del sistema y cabe la pregunta: es para mi 64-bits ?

La pregunta es todavia irrelevante porque para sacar provecho de los 64-bits hay que tener mas de 4Gb de RAM y las motherboards actuales suelen llegar como maximo justamente a 4Gb en el mejor de los casos.

Pros:

+ Mayor direccionamiento de memoria lo que se traduce en la posibilidad de instalar mucha mas memoria RAM
+ Mas velocidad en muy contadas aplicaciones
+ Mas seguro por la implementacion de una caracteristica que impediria ejecutar codigo malicioso


Contras:

- Necesidad de drivers para 64-bits
- Imposibilidad de ejecutar aplicaciones de 16-bits (ej: programas de DOS)
- Problemas con firewalls y programas varios no diseñados para funcionar en
plataformas de 64-bits.

Microsoft reconoce que la computacion de 64 bits no tiene sentido en todas las aplicaciones?
Entonces cuando usar 64-btis ?

+ Cuando tenemos aplicaciones que hacen uso intensivo de punto flotante (ej: AutoCad)
+ Aplicaciones que requieran gran cantidad de memoria RAM instalada (>4 Gb)

lunes, 16 de noviembre de 2009

¿Que es un Feed y para que sirve?



La traducción literal de feed al español no suele ser de mucha ayuda para entender su significado, pero si tuviera que elegir un término en mi idioma estos podrían ser canal o fuente, haciendo referencia a la información. Bien, ya sabemos entonces que un feed es una fuente de información. A partir de aquí, como suele ser habitual, parece que nos hubieramos puesto de acuerdo en complicar un poco el concepto.

¿Qué es un feed?

Los feeds que suelen aparecer en weblogs y sitios de noticias están, por norma general, escritos en un lenguaje llamado XML. Este lenguaje ofrece muchas libertades, hay muy pocas normas establecidas y con el fin de lograr un resultado uniforme surgieron algunas iniciativas para estándarizar la estructura de los feeds que dieron como resultado dos estándares, RSS y Atom (puede que haya más pero no son representativos).
RSS es actualmente la versión más extentidad, normalmente representada por los típicos iconos naranjas con las siglas RSS o XML.
Atom, una alternativa similar, está bastante extendida también y aporta diferencias mínimas respecto a su predecesor.
Al final, tenemos dos estándares muy similares, los dos en expansión que acaban complicando un poco la existencia de aquellos que hemos desarrollado alguna herramienta para leer feeds, como en nuestro caso con Feedness. Afortunadamente, el usuario final, no suele encontrar problemas ya que la mayoría de herramientas son compatibles con los dos formatos.

¿Para qué sirven los feeds?

Los feeds se crearon con el objetivo de que los sitios web pudieran sindicar sus contenidos, esto es, dar la posibilidad de leer los contenidos de un sitio “X” en otro sitio “Y”.
Sin embargo, la gran ventaja de la sindicación es el ahorro de tiempo que puede suponer leer los contenidos de decenas o cientos de sitios diferentes desde una misma web. Por ejemplo, poder leer los titulares y los contenidos de todos tus periódicos y blogs favoritos desde un mismo sitio. Estos sitios que permiten leer muchos feeds se llaman agregadores.
Por lo tanto, los feeds sirven para transportar contenidos de un sitio web a otro. Estos contenidos varían en muchos casos, en ocasiones tenemos sólo titulares o noticias completas. Si el contenido que transportan los feeds es un link a un fichero de audio, tenemos un feed con un nombre particular: podcast.

¿Cómo aprovecho esta tecnología?

Los agregadores de feeds son la herramienta ideal para sacarle provecho a esta tecnología, existen básicamente dos tipos de agregadores de feeds (también llamados lectores de feeds):
  • Agregadores basados en web
    Se trata de aplicaciones web que te permiten suscribirte a tus sitios favoritos (siempre y cuando estos ofrezcan feeds) y que te permiten mantener un control acerca de qué contenidos has leido y cuales no.
  • Agregadores locales (para instalar en tu sistema operativo)
    Lo mismo que en el caso anterior, salvo que la aplicación que te permite leer tus feeds se instala en tu ordenador.
A continuación una lista de agregadores basados en web que te recomendamos:
  • Bloglines, el agregador más usado.
  • Feedness, el agregador que creamos nosotros hace ya algún tiempo.
  • Rojo, un agregador muy dinámico que emplea Ajax.
  • Rezzibo, otra iniciativa hispana.
Finalmente, una lista de agregadores locales, por si prefieres esta alternativa:
  • NetNewsWire, exclusivo para Mac, el mejor agregador que existe (lamentablemente no es gratuito).
  • Feedemon, la alternativa que recomendamos para Windows, tampoco es gratuita.
  • RSS Owl, gratuito y disponible para Mac, Windows y Linux.

viernes, 13 de noviembre de 2009

Ray Tomlinson: el inventor del e-mail


Con diferencia, es la herramienta que más se usa a diario. Casi todos hemos dejado atrás el romanticismo de la carta manuscrita y el sello con sabor a cola, sustituyéndolo por el e-correo, el correo electrónico, el e-mail.
Pero ¿quién inventó tamaño prodigio? ¿Gracias a quién se ha catapultado la velocidad de la comunicación entre personas? ¿A quién le debemos que nuestra bandeja de correo se llene a menudo de spam?
La respuesta es Ray Tomlinson.
En 1971 envió el primer correo electrónico, utilizando el signo @. Ahora tiene 68 años y es premio Príncipe de Asturias de Investigación Científica y Técnica 2009. Pero ¿cómo surgió en Tomlinson la necesidad de enviar ese correo electrónico?
En 1967 entré en BBN (una empresa clave en el desarrollo de Arpanet, red que unía diferentes organismos de EE.UU., y de su heredera, Internet). Arpanet estaba creciendo, cada vez tenía más usuarios. Pensé que les gustaría disponer de una forma de comunicarse entre sí. Yo trabajaba en un cuarto con dos ordenadores conectados a la red, uno junto al otro. Enviaba un correo desde uno, giraba la silla y veía si llegaba al otro. Tras unos cuantos fallos, uno de los mensajes alcanzó su destino. No recuerdo qué ponía, una serie de signos escritos aleatoriamente con el teclado. Tan pronto me cercioré de que funcionaba, mi siguiente mensaje se lo dirigí a mis colegas, describiendo cómo enviar mensajes a los demás insertando el signo @ entre el nombre clave del usuario y el identificador de su ordenador.
La razón por la que Tomlinson escogió el signo de la arroba y no otro fue, en cierto modo, lógico. No podía elegirse una coma, un guión, un paréntesis y demás signos ortográficos porque lo que perseguía Tomlinson era un carácter que no apareciera en el lenguaje de las computadoras. Finalmente, optó por @, que en inglés en el símbolo de la palabra “at”, que indica posición.
El día el que se envió el primer correo electrónico, sin embargo, los demás no parecían tener mucha fe en el invento, como explica el propio Tomlinson rememorando el día exacto del primer envío:
El momento exacto aparece nublado por el paso del tiempo, aunque mi mejor reconstrucción de los hechos lo sitúa a finales de 1971, creo que noviembre. El programa se llamaba SNDMSG, que era el nombre del software con el que empecé. La nueva versión conservó el nombre, aunque se diferenciara del otro en que podía enviar mensajes a través de la red y no sólo a los usuarios de un mismo servidor. Uno de mis colegas me dijo que le parecía una idea estupenda y bromeó diciendo que no debería perder mucho tiempo con aquello.
Por esa razón, Tomlinson ni siquiera registró la patente de su invento, pues no podía esperarse que su idea llegara tan lejos. Hasta que, a partir de 1993, el e-mail comenzó a universalizarse.
Por cierto, Tomlinson afirma que actualmente usa a diario el correo electrónico, enviando entre 10 y 20 al día. Y que el programa que usa para ello es el Thunderbird.

Vía | XLSemanal

Point Grey, la primera webcam USB 3.0 capaz de transmitir vídeo en 1080p


Si Microsoft tiene su webcam capaz de emitir en 720p, es gracias a un gran códec que hace el vídeo menos pesado para poder transmitirlo mediante USB, pero que pasa cuando queremos hacerlo a lo grande, una cámara transmitiendo vídeo a 1080p, una de las nuevas soluciones será los nuevos cables USB que tiene más ancho de banda. Point Grey es la primera webcam compatible con los nuevos cables USB 3.0, capaz de emitir vídeo en 1920×1080 píxeles sin codificación, a 60fps.

La cámara usa un sensor CMOS de Sony, capaz de visualizar todo a una resolución bastante clara en grandes monitores. Esto en realidad, de convertirse en una tendencia, que las cámaras de 1080p se conviertan en webcams, da un poco de miedo con la claridad con la que te podrán ver.
Se ha mostrado en el IDF y por ahora es un prototipo, incluye autoenfoque pero tiene un objetivo que puede moverse manualmente, porque sigue siendo un prototipo, no lo juzguemos prematuramente.
Por cierto, gracias a esta cámara, podemos ver como serán los nuevos cables USB 3.0 en su formato “cuadrado”.

Seagate presenta el Barracuda XT 2TB, el primer HDD SATA III



Hace un tiempo se anunció que se habían terminado las nuevas especificaciones SATA-IO para los discos SATA III que alcanzarían velocidades de 6Gb/s. Seagate se apuró lo suficiente y ahora presentó el disco Barracuda XT de 2TB con esta característica.
Es un HDD de 3.5 pulgadas que posee 4 platos, una velocidad de 7.200rpm y 64MB de caché. Una verdadera preciosura para aquellas personas que quieran velocidad y una gran cantidad de espacio para tirar absolutamente todo lo que desee.
Supuestamente y según informa la empresa podrá transferir información a 140Mb/s y un MTBF de 750 mil horas de uso (creo que antes moriremos nosotros que el disco rígido ;-).

domingo, 8 de noviembre de 2009

Pintura que mantendrá a los ladrones de WiFi alejados

 

  
Aquellas personas que tengan una laptop probablemente tengan un router WiFi (o un cable de 30 metros pero eso no viene al caso) y por tener ese tipo de conexión seguramente tuvieron que “echar” a intrusos que estén robando su ancho de banda (tengan clave o no, la seguridad es un verdadero problema de las redes WiFi).
Ahora la revista New Scientist reveló que científicos de la Universidad de Tokio crearon una pintura que tiene óxido de hierro y aluminio que permite bloquear las frecuencias de las redes inalámbricas.
Hace tiempo los investigadores habían logrado bloquear las frecuencias más bajas como de, por ejemplo, celulares, pero nunca habían podido hacerlo con las de redes WiFi. Esta nueva pintura, que es cuatro veces más potente que la anterior, funciona a la perfección.
Lo mejor de todo es que la elaboración del producto cuesta sólo US$14, así que tranquilamente se podría comercializar sin ningún tipo de problema y mantener a los molestos vecinos fuera de nuestra red.

 Vía: Gizmología