La tecnologia

Un mundo muy avanzado.

Tecnologia del Futuro

¿Asi sera nuestro planeta en el Futuro?

Seguridad Informatica

Protegete de las amenazas Ciberneticas.

¿Tecnologia Cibernetica?

La cibernetica un mundo por explorar.

Grafeno el Material del Futuro

Cristal de carbono en el que los átomos están dispuestos en un plano de forma hexagonal.

jueves, 23 de junio de 2016

Aeromobil 3.0

Aeromobil 3.0, el auto volador


Los autos voladores del futuro que creíamos que eran pura ciencia ficción de las películas parece que comenzarán a ser una realidad. Si bien no es el primer concepto de coche volador, el Aeromobil 3.0 ha sido anunciado que estará a la venta en el 2017, de acuerdo con su fabricante de origen eslovaco; el vehículo/aeronave puede conducirse en caminos normales y despegar desde una franja de pasto.

Años antes el Terrafugia Transition se había hecho de fama por ser uno de los primeros prototipos realizados físicamente, pero no llegaron a realizar producción para la venta al público. Finalmente, el tan esperado auto volador ya casi está aquí. AeroMobil, es una empresa eslovaca, la cuál planea comenzar a vender su creación denominada Aeromobil 3.0, en 2017.
Según el sitio web de la empresa, se dice que el vehículo volador se transforma en segundos de un automóvil a un avión utilizando la infraestructura existente creada para automóviles y aviones.
El vehículo funciona con gasolina y tiene alas que se pliegan, lo cual permite que se estacione como un auto, aunque a diferencia de un auto convencional, este tiene casi 6 metros de largo.
Además de otra información, en el sitio web de la compañía se presenta un vídeo en el que se puede ver al AeroMobil 3.0 como es conducido fuera de un hangar espacial y a través de una carretera, compartiendo el camino con automóviles normales hasta que llega a una pista de aterrizaje. El auto entonces despliega sus alas y despega desde un tramo de pasto, en lugar de una pista pavimentada y vuela como cualquier otro avión pequeño.



La empresa no se ha aventurado a decir algún precio, pues la producción aun no se pone en marcha. El prototipo es un trabajo en progreso, dijo Stefan Vadocz, portavoz de la empresa Aeromobil. Sin embargo, añadió que espera que el precio ronde los cientos de miles de euros, algo entre un auto deportivo y una aeronave deportiva ligera, un lujo exclusivo para algunas personas millonarias.
El vehículo tiene una capacidad para dos personas -el piloto y un pasajero- y su única hélice se encuentra en la parte trasera del coche/avión.
La velocidad máxima del vehículo en la carretera es de al menos 160 kilómetros por hora y durante el vuelo es de al menos 200 kilómetros por hora. Puede volar 700 kilómetros antes de quedarse sin gasolina, según datos informativos de la empresa.

El Aeromobil 3.0 tendrá una estructura de acero y revestimiento de carbono y es impulsado por un Rotax 912, un motor de avión de cuatro cilindros de la compañía austriaca BRP.
Aunque los autos voladores no son exactamente nuevos. El concepto ha existido desde mucho antes de que en la caricatura de Los supersónicos lo popularizaran en la década de 1960. Desde entonces ha sido un tema habitual en Popular Science desde que el piloto de la Primera Guerra Mundial Eddie Rickenbacker escribiera sobre él en 1924.


Pero hacer despegar un auto volador desde la tierra ha sido un serio desafío. Glenn Curtiss, un rival de los hermanos Wright, descubrió esto en 1918 cuando desarrolló el Curtiss Autoplane. Resultó ser más de saltador que volador, por lo que no logró posicionarse entre el público.

El AeroMobil 3.0 tiene al menos un competidor, el Terrafugia Transition, que también funciona con gasolina y tiene alas plegables. Terrafugia ha dicho que planea lanzar a la venta el Transition al mercado este año.

Tecnología Biométrica

Tecnología Biométrica, el futuro de la seguridad para móviles




Con las nuevas amenazas informáticas y de acceso a dispositivos móviles, los usuarios esperan una nueva generación de seguridad. Según un estudio hecho por Ericsson, el 52% de los usuarios de móviles espera que en el 2014 se implemente un sistema completo de seguridad biométrica, donde la huella digital o el iris del ojo, sea la llave para acceder a nuestro dispositivo de comunicación.
Los sistemas Biométricos llevan años desarrollándose, pero apenas recientemente se perfilan como una posible solución masiva, para elevar los sistemas de seguridad y acceso a dispositivos de telefonía móvil. En la actualidad, se puede ver este tipo de tecnología para ingresar a oficinas, gimnasios e incluso, a estadios. Con la llegada de la tecnología Touch ID, se podrán capturar las huellas digitales desde la pantalla del dispositivo, lo que permitiría realizar una verificación de identidad, que permita solamente al dueño del dispositivo desbloquear el móvil, sin tener la necesidad de utilizar contraseña, ya que nuestra propia huella sería la contraseña más fuerte e infranqueable para cualquier pirata.
El inicio de esta nueva tecnología se podrá probar en el iPhone 5S y en el Tablet de la casa HTC llamado One Max. Además, otros dispositivos electrónicos como las consolas de videojuegos Xbox One y PS 4, también estarían utilizando una tecnología similar para el reconocimiento del iris del usuario. También, se perfila el Lenovo ThinkPad 2 como usuario de dicha tecnología de seguridad.



Todo parece indicar que estamos ante el inicio de una nueva era en sistemas de seguridad para dispositivos móviles, los cuales, permitirán sólo al usuario o dueño del dispositivo poder utilizar el móvil, tablet o cualquier otro equipo que utilice la seguridad biométrica. De esta manera, se pretende disminuir robos y por supuesto, accesos no autorizados.
Pero esta tecnología podría ir mucho más allá, ya que no solamente podrá ser utilizada para desbloquear el equipo, o para autorizar comprar en eBay o Amazon, ya que también se podrá aplicar para ingresar a cuentas de e-mail, cuentas de bancos y una enorme cantidad de ingresos que requieran contraseñas, lo que no sólo disminuirá los delitos informáticos, sino que también marcará el fin de la era de las contraseñas, que muchas veces se nos olvidaban o simplemente, nos eran robadas.



Sin embargo, el sistema tiene debilidades que de seguro, serán explotadas por los piratas informáticos, es por esta razón, que los expertos recomiendan combinar dicha tecnología con otro sistema de autentificación. Sólo nos resta esperar a ver, cómo se desarrolla esta nueva tecnología de seguridad en dispositivos móviles.



Cloud Computing

Cloud Computing


Desde la introducción de Android a mediados-finales de 2008 con el T-Mobile G1, se supo que Google estaría impulsando el concepto de computación en la nuble (Cloud Computing en su definición original en Inglés) a través de servicios que poco a poco han sido adaptados a los Smartphones y que en su conjunto, han creado una de las mejores experiencias de conectividad y comunicación que ha creado una base de usuarios de casi 200 millones de usuarios alrededor del mundo y con ello, un negocio multi-billonario para todos los actores involucrados, desde los operadores celulares y tiendas que comercializan los equipos, pasando por los desarrolladores de soluciones, software y aplicaciones, el mercado de accesorios para dichos dispositivos y claro, para la propia empresa que lo respalda: Google, que a través de un modelo de publicidad, permite rentabilizar casi cualquier servicio que haga llegar a los smartphones y computadoras.
La idea detras del cloud computing es utilizar Internet de manera masiva en lo que anteriormente era procesado por las computadoras de manera local, es decir, que en vez de que utilizemos los recursos de hardware presentes en nuestras computadoras, Internet hace posible que utilizemos enormes y potentes computadoras llamadas servidores que han dichas tareas por nuestras computadoras y dispositivos móviles.
El término no significaba gran cosa hasta hace poco, cuando las grandes empresas de electrónicos, como Apple con iCloud, comenzaron a masificar el término, “educando” así a los consumidores que están cada vez más conscientes de las ventajas que significa el uso de “La Nube” en las tareas diarias a través de sus computadoras y Smartphones.
La realidad es que hoy en día ya hay millones de usuarios que utilizan “Cloud Computing” sin si quiera darse cuenta o estar conscientes de ello y dado que las ventajas de ésta tendencia no sólo se reflejan en los consumidores, las empresas estarán diseñando sus servicios cada vez con mayor frecuencia inspirados en la arquitectura de “la nube”, siendo que con ello, es posible ofrecer mejores y más rapidos servicios a través de Internet.
No pasarán más de 3 años antes de que el uso del Cloud Computing se extienda a lo largo y ancho del planeta tierra y llegue a los rincones conectados más remotos y más alla, hasta el propio espacio en la Estación Espacial Internacional..  Si compartir información es algo fácil y ya rutinario en nuestro presente 2011, el Cloud Computing habilitará las mejores y más relucientes capacidades de internet, en las que ya no existirán limitantes entre formatos, compatibilidad de sistemas operativos ni molestos contratiempos al momento de enviar archivos (multimedia o de trabajo) a cualquier parte del mundo y todo esto en fracciones de segundo.

Además, el uso del Cloud Computing tiene también el potencial de cambiar para siempre el desarrollo y uso de software en la forma de aplicaciones (Móviles o Fijas) ya que en teoría, una vez que los estándares se asienten entre las empresas competidoras, sería posible hablar de que lo único que requerirían las computadoras y dispositivos móviles sería una conexión a internet para acceder a su Sistema Operativo, concepto que ha estado rondando en algunos pocos ambientes corporativos pero que podría llegar a masificarse una vez que otra de las tendencias de las que hablaremos aquí en PoderPDA, también se vuelva cotidiana en todo el globo.



Pantallas Flexibles

Pantallas Flexibles


En el año 2005 escribí una editorial “Vistazo al Futuro del Cómputo Móvil” (el cual he rescatado recientemente..) en el que exploraba las posibilidades de lo que hoy en el presente y que utilizamos habitualmente y llevamos con nosotros en nuestros bolsillos o en la cintura todo el tiempo: Los Smartphones.
Si bien la evolución de la forma de los dispositivos móviles ha evolucionado mucho desde sus inicios a finales de los 90´s, la realidad es que algo de la genética principal se ha mantenido y es que la pantalla de nuestros Smartphones, aún con todos los miles de pixeles que ahora cuentan, con tecnología que permite mostrar millones de colores y con una definición sorprendente, sigue siendo en su amplísima mayoría y escencia, un pedazo duro de distintos materiales que imposibilita la divergencia en el diseño de los Smartphones.
Es por eso que en los últimos años, el desarrollo de pantallas flexibles ha tomado gran relevancia en los laboratorios de investigación de fabricantes y proveedores de componentes electrónicos, ya que dentro de muy poco (calculo 2 a 3 años), los fabricantes se verán forzados a innovar más allá de la clasica forma de “lozeta multitáctil” que hoy observamos en más del 90% de los dispositivos móviles de gama alta.
Mucho se ha hablado sobre los conceptos de diseño que podremos ver en el futuro a mediano plazo, una vez que los problemas de producción y fabricación masiva de pantallas flexibles sean resueltos claro está, entre los cuales encontramos al Nokia Morph que va más allá de la flexibilidad y se integra de lleno en la nanotecnología, cuestión que en mi opinión, aún se encuentra a más de una década de distancia en cuanto a su integración masiva en la vida diaria.
Es cierto que la tendencia está apenas en plena formación y que su desarrollo como tecnología de consumo aún dista algunos años antes de que contemos con dispositivos totalmente flexibles, si bien ya hemos visto con anterioridad algunos prototipos como el Paper Phone, del que publicamos algo en Mayo pasado (2011).
Una de las empresas que más se está esforzando en esta cuestión de las pantallas flexibles es Samsung, quien ha ido tan lejos como fabricar el primer Smartphone de corte masivo, el Nexus S, con una pantalla ligeramente curveada. Sinceramente, tengo todas las expectativas puestas sobre Samsung, siendo el actual líder en Smartphones a nivel mundial.  Hace poco, en Agosto pasado, también les publicamos sobre un conocepto de Smartphone, un Samsung Galaxy Flexible.

Es posible también que las pantallas flexibles den pié a un nuevo nivel de convergencia, uno que permita que nuestro Smartphone se convierta en nuestra computadora (o tablet) y de ésta manera, contar realmente con un único dispositivo que domine nuestra comunicación y acceso a internet… ya el tiempo nos lo dirá.

Redes Celulares 4G

Redes Celulares 4G


Los operadores celulares del mundo entero han experimentado un enorme crecimiento en el uso de sus redes de telecomunicaciones en los últimos años, mayormente bajo tecnologías 2G (GSM EDGE, 1xRTT, etc..) y tecnologías celulares 3G (EvDO, UMTS, HSDPA, etc..) siendo que la demanda ha superado por mucho a la oferta, lo que ha ocasionado caídas y severos problemas de tráfico en dichas redes, que se convierten en incomunicación y desconexión hacia los usuarios.
En México no hemos sido ajenos a esta situación y las caidas de señal, problemas en la conmutación así como saturaciones repentinas de las redes cada vez son más frecuentes. Operadores celulares grandes como Telcel o AT&T en Estados Unidos incluso han reconocido públicamente que sus redes han sido rebasadas por el uso de internet móvil desde Smartphones, mientras que operadores más pequeños como Iusacell, han tenido múltiples caidas severas en sus redes durante los últimos meses de éste 2011.
La razón primordial es que durante años los operadores celulares se enriquecieron con el uso de servicios menos complejos como los mensajes de texto (sms) o descargas de ringtones y “contenido multimedia”, cuestiones que no son tan demandantes en el uso de internet móvil. Sin embargo, el auge casi repentino de los Smartphones tomó por sorpresa a la mayoría de los operadores e instituciones de telecomunicaciones, quienes menospreciaron a los dispositivos móviles inteligentes durante mucho tiempo, argumentando que al ser equipos más caros nunca lograrían rebasar a los omnipresentes celulares convencionales, algo que ya hoy en día es un pensamiento netamente ridículo. Lamentablemente y afortunadamente estuve ahí para presenciar no una, si no varias veces esta cuestion y al igual que muchos de los que hemos presenciado de cerca la industria de las telecomunicaciones, puedo atestiguar que la revolución de los smartphones no provino directamente de los operadores celulares si no de las marcas y fabricantes de Smartphones quienes han empujado los límites de lo posible de cara a los usuarios a lo largo de la última década.
Actualmente, las velocidades alcanzadas en tecnología celular 3G promedian menos de la mitad de lo que alguna vez fueron, cuestión que no solo observamos en latinoamérica si no que impacta incluso en países y regiones totalmente desarrollados como lo son Europa o Estados Unidos.
Lo más “triste”, si es que podemos catalogarlo bajo una emoción.., es que el plan para que los operadores celulares amplien sus negocios y por ende, la capacidad de sus redes de telecomunicaciones, radica en la colocación de nuevas y “mejores” redes celulares, las cuales son ofrecidas a los consumidores y a la industria en general en forma de un nuevo concepto de velocidad: 4G.
Después de que la ITU otorgara el título de “4G” a la tecnología HSPA+ que originalmente era considerada como tecnología de “3.5G” o en el mejor de los casos “3.9G”, una inmensa oleada de operadores alrededor del mundo han comenzado a vender la idea de que el paso entre una tecnología y otra, es la mejor solución a los problemas de conectividad y velocidad de los clientes, siendo corporativos o consumidores.
La realidad es que el problema va mucho más alla de la terminología de marketing con el que denotan a las tecnologías de acceso móvil 3G o 4G y ello va directamente a la cuestión de que el espectro radioeléctrico de los países es limitado y se está acabado rápidamente. Si a esto sumamos la falta o el exceso de regulación por parte de los gobiernos alrededor del mundo en torno al manejo del espectro radioeléctrico, pues la situación de los operadores celulares se complica más, razón por la cual, licitaciones de espectro son tan competidas y controversiales como lo hemos presenciado aquí mismo en México con Televisa, Telcel, Movistar, Nextel y Iusacell actuando como niños pequeños por una rebanada del pastel radioeléctrico…
La cuestión radica en que el acceso a internet móvil será cada vez más necesario y a la vez su precio se mantendrá “estable” durante al menos 2 o 3 años, siendo que para estas fechas del 2011, podríamos llegar a hablar de algún tipo de “convenio secreto” entre operadores celulares para evitar guerras de precio sin sentido que sólo abaratan el precio y eliminan la rentabilidad de la venta de acceso a internet móvil.
Se está comenzando a hablar de que el 2013 será el año en que los datos móviles dejarán de ser rentables, siendo que su continuo abaratamiento y mayor demanda, está forzando a los operadores a invertir más en costos operaciones y en cuestiones de ampliación de capacidad en sus redes, costos que se reflejan en miles de millones de dólares que los operadores están inviertiendo año con año tan sólo para mantener las paupérrimas velocidades que hoy tenemos en nuestros smartphones, tarjetas bam y demás dispositivos celulares con acceso a internet.
Aún así, el despliegue de redes HSPA+ de manera masiva, como hoy se está haciendo con Telcel, con Telefónica Movistar y próximamente con Nextel, además de Iusacell que comercializa su red GSM HSPA+ desde el pasado 2010, permitirá un leve espacio de “aire” en lo que las verdaderes redes 4G son implementadas utilizando LTE en la mayoría de los casos, incluyendo claro está, a Telcel LTE para el 2012 (<- enlace externo a SPK).
La diferencia en la forma de utilización del espectro entre HSPA+ y LTE es distinta, aunque las pruebas y comprobaciones en países con ambas redes han demostrado que la diferencia de cada al usuario es relativamente mínima, tomando como referencia las diferencias entre la red LTE de Verizon y la red HSPA+ de T-Mobile en Estados Unidos, siendo éste último operador, el principal causante de que HSPA+ sea considerada como una tecnología de 4G.
Actualmente, las limitaciones en el uso de GB en los planes de datos 3G y “4G” de los operadores impiden que la experiencia de uso en Smartphones sea totalmente fluida y sin interrupciones, además de no volver a mencionar las caidas y saturaciones de redes, lo que significa que no todos los usuarios tengan un acceso completo y sin reestricciones a la enorme gama de posibilidades que ofrecen los Smartphones.
En los próximos años, la estabilización de las redes 3G y la llegada de las verdaderas redes 4G bajo LTE o WiMAX permitirán una nueva era de acceso móvil multimedia, algo que también va de la mano con el abaratamiento en costos de fabricación para que más y más electrónicos, vehículos y electrodomésticos tengan capacidades de comunicación inalámbrica celular y dar pie a una nueva revolución en lo que a servicios web se refiere.

Ese mundo “100% conectado” del que tanto nos han hablado en comerciales sin duda está llegando poco a poco y la tendencia consumista del mundo sólo es capaz de acelerar el proceso en los próximos años. Siendo que estoy seguro que a lo largo de la próxima década seremos testigos de cambios aún más radicales en la forma en la que nos comunicamos, nos entretenemos y hacemos negocios.

Inteligencia Artificial

Inteligencia Artificial



Dejé la cuestión de la IA (Inteligencia Artificial) hasta el final porque sin duda será el cambio más radical e importante de todos de cara al futuro próximo. Siendo que el término más popular hace una década en cuanto a dispositivos móviles era PDA (“Asistente Digital Personal”, en Inglés “Personal Digital Assistant”), los equipos que hemos usado desde principios de la década hasta la actualidad en realidad han sido más herramientas con múltiples capacidades que verdaderos “Asistentes Digitales”.
Sin embargo, la popularización del acceso a internet, el desarrollo de procesadores y microcircuitos cada vez más potentes, la ubicuidad de los Smartphones en las distintas sociedades del mundo y el abaratamiento y consecuente masificación de todo lo anterior está dando paso a una nueva era en la que la ciencia ficción se volverá cotidiana.
Definimos la palabra “Robot” como toda “Entidad Mecánica o Virtual Artificial” y la imágen que nos evoca es la de robots humanoides sirviendonos el desayuno por las mañanas o como máquinas despiadadas desmembrando seres humanos… pero la realidad es que dentro de muy poco, llevaremos “robots” en nuestros bolsillos.
El desarrollo de algoritmos de reconocimiento de voz, como en el caso de Siri de Apple, o de la creación de servicios de búsqueda semántica por parte de Google, permitirá que nuestros Smartphones comiencen a ser más proactivos en nuestras vidas y sean realmente capaces de ayudarnos más allá de ser herramientas en toda su complejidad o simplicidad.
Si bien el ser humano aún esta lejos de recrear una mente humana, empresas como IBM están trabajando arduamente en el desarrollo de redes neuronales artificiales que algún día lograrán replicar el complicado mecanismo de lo que denominamos “pensar”.
Aún así, siendo que la inteligencia artificial podemos ubicarla bajo cuatro puntos que son, el habla, la recolección de datos, la toma de decisiones y la asimilación de autoconsciencia mediante múltples sensores, la realidad es que nuestros Smartphones sólo tenderán a ser más y más “inteligentes” y la integración de éstos en nuestra vida diaria sólo será mayor a cada año que pase.
Por ahora resulta casi imposible pensar en el número de escenarios en los que nuestros Smartphones con Inteligencia artificial podrían ayudar o interactuar con nosotros, pero sólo basta con ver algunas películas hollywoodenses de corte progresista (no destructivo) para darnos una idea de lo que podríamos tener en nuestros bolsillos en los próximos años.
Particularmente encuentro sumamente interesante pensar en la próxima generación de aplicaciones y usos que éstos dispositivos realmente inteligentes podrían llegar a significar en nuestras vidas y sobre todo, cuál sería el cúmulo de cambios que la humanidad estaría enfrentando bajo el escenario de los Smartphones con Inteligencia Artificial.
Resulta casi cómico el pensar en usuarios que realmente sentirían sentimientos frente a Smartphones que pasarían de ser simples repositorios de información a ser verdaderos entes con capacidad de raciocinio y habla, los cuales, tampoco resulta imposible llegar a pensar que algún dia en los próximos 20 años, podrían convertirse en humanoides de acero y silicio.

Al respecto de la inteligencia artificial no me pregunto si llegará o cuando estará en nuestros hogares y bolsillos, más bien me pregunto cómo será el resultado y las consecuencias a mediano y largo plazo de esta próxima generación convergente de tecnologías.

Drones

Drones, tecnología de alto vuelo



Los drones son vehículos terrestres o aéreos no tripulados que se controlan a distancia. Los que vuelan también reciben el nombre de VANT (vehículo aéreo no tripulado) o con sus correspondientes siglas en inglés UAV
La mayoría de los drones se manejan con radio control, pero pueden ser también manejados y programadas mediante una tablet o un smartphone. Lo que les diferencia con un vehículo de radiocontrol (coches teledirigidos, aviones, helicopteros teledirigidos, etc) es que no necesitan una entrada constante de datos por parte del operador y pueden ser capaces de volar por si mismos.
Tipos de drones y sus aplicaciones
Existen muchos tipos de drones diferentes en el mercado que cubrirán todas las expectativas.
Los drones se pueden clasificar en dos grandes grupos: civiles y militares. Cómo creemos que no eres un espía y nos estás leyendo para comprarte un dron militar, en esta guía vamos a centrarnos en los diferentes tipos de drones civiles.

1. Según la superficie por la que se desplacen pueden ser:

•             Terrestres: ésto no necesita mucha explicación. Son los que se mueven fundamentalmente por el suelo.


•             Aéreos: aquellos drones preparados y diseñados para volar, equipados con rotores que les confieren el movimiento y giroscopios para darles estabilidad.



2. Según el uso para el que están destinados podemos clasificarlos en:

•             Drones recreativos: estos aparatos tienen como finalidad el entretenimiento. Son capaces de realizar saltos, giros, vueltas y todo tipo de acrobacias. Mira en este vídeo algunas de las piruetas con las que puede sorprendernos el Parrot Mini Drone Jumping Sumo.
•             Drones para fotografía y vídeo: este otro tipo de drone está enfocado al vídeo y la fotografía. Con ellos serás capaz de capturar todo tipo de escenas desde los ángulos más increíbles. Grabar a tus amigos mientras hacen surf, haceos una foto en la playa desde una perspectiva inaccesible o realizar una panorámica desde lo alto de una montaña. Dentro de este tipo de drones encontraremos modelos con la cámara incorporada, mientras que otros vendrán con una estructura en la que acoplar tu equipo de grabación.


3. Los drones aéreos también se podrán clasificar por el número de rotores:

•             Cuadricóptero: el vuelo lo consiguen através de 4 motores con hélices, dispuestos en forma de cruz. Cuentan con giroscopios de diferentes ejes (3 ó 6) que les sirven para conseguir la estabilidad en posición horizontal.
•             Multicóptero: se llaman así a los equipos con un número de motores mayores que 4. En el mercado se pueden encontrar drones de 6 (haxacópteros) e incluso 8 rotores. Su precio suele ser superior a los 2000 € y tienen un uso profesional: cine, reconocimiento y vigilancia de incendios, etc.



Le dejamos este video que nos muestra las aplicaciones y el futuro de esta tecnología en donde el ingeniero puede encontrar nuevos camino.

martes, 14 de junio de 2016

Rayos Laser


Rayos Lacer

El rayo láser es un tipo especial de luz que posee unas características físicas especiales que permiten su uso en aplicaciones específicas. Aunque determinados modelos de generadores de rayos láser puedan quemar o fundir objetos, ésta no es la principal utilidad que se les puede dar. El láser se emplea como instrumento para transmitir información, para grabación y recuperación de datos, música e imágenes en los discos compactos, en giróscopos para aviones, para fabricación de circuitos integrados y en medicina como bisturí cauterizante.
La tecnología empleada en el diseño y construcción de dispositivos láser se basa en un fenómeno físico conocido como emisión estimulada de radiación. Este tipo de emisión fue enunciado por primera vez en 1916 por Albert Einstein, que definió las bases teóricas por las que se regiría dicha emisión.
Pero no fue hasta 1928 cuando se detectó la primera radiación de este tipo. Por aquella época todavía era considerada una curiosidad científica sin aplicación práctica.


El primer dispositivo que se construyó utilizando el concepto de emisión estimulada de radiación fue el máser (iniciales de «microwave amplification by the stimulated emisión of radiation» --«amplificación de microondas por la emisión estimulada de radiación»--). El sistema empleaba un haz de moléculas que se separaba en dos grupos, moléculas excitadas y moléculas no excitadas.
Las moléculas excitadas eran empleadas para emitir microondas en una cámara de resonancia diseñada para favorecer dicha emisión. Este máser fue diseñado y construido por Charles H. Townes, de la Universidad de Columbia, en 1953, aunque simultáneamente y de forma independiente, los doctores Aleksander M. Prokhorov y Nikolai Basov, del Instituto de Física Lebedev de Moscú, publicaron un estudio teórico de las condiciones requeridas para que un dispositivo de este tipo funcionara.
Una vez obtenido el máser, los físicos empezaron a estudiar el método de producir el mismo tipo de radiación estimulada en otras zonas del espectro, como la de la luz visible, cuyas aplicaciones prácticas fueran de interés. Charles H. Townes entró a trabajar en los laboratorios de investigación de la prestigiosa compañía Bell (después llamada AT&T) y junto con Arthur L. Schawlow publicó un documento en 1958 en el que definía las diferencias principales que tenían que existir entre un máser convencional y el que ellos denominaban «máser óptico».
Éste no era otro que el láser actual. Pero este nombre (iniciales de «light amplification by the stimulated emission of radiation» --«amplificación de luz por la emisión estimulada de radiación»--) le fue dado por Gordon Gould, estudiante de la Universidad de Columbia que hizo sus propios estudios independientes a la vez que Townes y Schawlow, en 1957.
Una vez establecidos los conceptos teóricos, se inició la carrera para construir el primer láser. Por un lado, Gould, en unión de una compañía denominada TRG, consiguieron un contrato del Pentágono para construir un láser con aplicaciones militares, mientras que Schawlow realizaba otras investigaciones por separado.
En ambos casos, se consideraba que el material base para producir la emisión estimulada de luz debía ser un gas. En cambio, Theodore H. Maiman, físico que trabajaba en los laboratorios de investigación de Hughes, empezó a trabajar con cristales de rubí sintéticos. Y en 1960 presentó el primer láser de la historia, que constaba de un cristal de rubí, que en sus dos extremos poseía espejos y que se activaba por medio de una lámpara de flash produciendo un fino haz de luz roja.
A partir de ese momento, el desarrollo del láser empezó a acelerarse vertiginosamente; el primer láser que empleaba gas (una mezcla de helio y neón) fue producido en 1960 por Ali Javan y dos compañeros de los laboratorios Bell. El año 1962 fue testigo de una carrera entre grupos de investigación de General Electric, IBM y de los laboratorios Lincoln del MIT (Instituto de Tecnología de Massachussetts) para producir un diodo láser, obteniendo los tres resultados casi simultáneamente. En 1964 se diseña uno de los láseres de potencia media más comunes a partir de entonces, el denominado Neodimio-YAG.
En las últimas décadas las investigaciones se centraron en el desarrollo de láseres de rayos X. Este tipo de dispositivos tienen aplicaciones principalmente militares, por lo que no se sabe mucho sobre su funcionamiento, aunque su característica más llamativa es que la fuente de excitación no es la luz de un flash o una descarga eléctrica, como en otros modelos, sino una explosión nuclear, ya que es la única fuente abundante y rápida de rayos X.


Ondas y partículas

Toda la materia se compone de átomos, que a su vez se componen de tres partículas básicas: electrones, protones y neutrones. Los electrones tienen una masa muy pequeña y carga negativa; los protones y neutrones poseen aproximadamente la misma masa, pero mientras los protones tienen carga eléctrica positiva, los neutrones no tienen carga. Cualquier elemento químico, hierro, oxígeno, carbono, etc. y los compuestos que se obtienen juntando estos elementos, están constituidos por combinaciones de estos tres tipos de partículas.
El concepto clásico de la física de partículas define, además de las tres partículas elementales que se acaban de citar, las ondas electromagnéticas. Dicho concepto define a las ondas como portadoras de energía que no poseen masa, sino una frecuencia de oscilación que varía en función de la energía que llevan; dicha dependencia se establece con la fórmula E = h · f, donde f es la frecuencia de la onda electromagnética, E la energía que lleva y h la denominada constante de Planck. Según esta concepción clásica, las ondas y las partículas se hallan perfectamente diferenciadas. La luz sería una onda, con una frecuencia muy elevada y sin masa. Esta diferencia dejó de existir con la aparición de la física cuántica, que definió la teoría onda-corpúsculo, unificando los dos conceptos.
Según la teoría onda-corpúsculo, toda partícula, independientemente de su tamaño y otras características físicas, puede considerarse como una onda electromagnética o como una partícula física. Por ejemplo, los electrones se difractan al pasar por una rendija de forma similar a la luz, pero también colisionan unos con otros como si fuesen partículas. Según la física convencional, la energía que lleva una partícula en movimiento, no sometida a ningún campo, es su energía cinética E = 1/2 m · v2. Igualando esta fórmula con la relación de Planck dada anteriormente, se establece una relación entre la masa, la velocidad y la frecuencia de la onda-corpúsculo, que es: m = 2 h f / v2.



La teoría también puede aplicarse a lo que convencionalmente se consideran ondas. La luz, por tanto, puede considerarse también una onda-corpúsculo. Como onda electromagnética posee las características físicas a que estamos acostumbrados, se difracta en las rendijas, unas ondas crean interferencias en otras, se difractan en los prismas, etc.
Si se considera a la luz como una partícula, se obtienen algunos resultados inesperados. Dicha partícula se denomina fotón, y en contra de la creencia habitual, tiene masa. Esta masa es muy pequeña, casi inmedible, pero físicamente es de gran importancia e incluso existen aplicaciones de los láser que se basan en dicha masa.


Emisión de luz por los átomos

Un átomo se compone de un núcleo formado por una agrupación de protones y neutrones y de un conjunto de electrones situados a cierta distancia alrededor del núcleo. Cada uno de estos electrones posee una energía que depende de su distancia al núcleo. Esta distancia posee una característica importante: está cuantificada. Esto significa que un electrón no puede estar situado a cualquier distancia del núcleo ni poseer cualquier cantidad de energía. En cambio existe una serie de niveles de energía y de orbitales permitidos que son los únicos en los que se puede hallar.

Para pasar de un nivel a otro más alto el electrón absorbe una cantidad fija de energía, que es la diferencia entre la energía que poseen los dos niveles. Cuando desciende de un nivel a otro más bajo, desprende la misma cantidad de energía que absorbería para saltar del más bajo al más alto.
Esta energía absorbida o emitida puede tener diversas representaciones, puede ser energía rotacional, al girar una molécula o átomo, energía vibracional de la partícula, que puede oscilar como un péndulo, o se puede presentar también como la absorción o emisión de un fotón, que es la que interesa para el funcionamiento del láser. El paso de un electrón de un nivel de energía inferior a otro superior se produce siempre que exteriormente reciba la suficiente energía.
El descenso de un nivel a otro inferior se realiza en condiciones normales espontáneamente sin ayuda externa, ya que el nivel más estable es el más bajo, desprendiéndose en el proceso la energía correspondiente a la diferencia entre los dos niveles. El único impedimento que puede existir para que un electrón descienda a un nivel inferior es que dicho nivel ya esté completo.
Para comprender el proceso se puede establecer una equivalencia con una serie de estantes colocados a distintas alturas y con pelotas en algunos de ellos. La pelota situada en el estante más inferior se quedará en él, ya que no puede bajar más, en cambio una pelota situada en un nivel más elevado tenderá a caer disminuyendo su energía.
Para pasar del estante inferior a uno superior es necesario subir la pelota, suministrándole una cantidad de energía que tendrá que ser la necesaria para cubrir la distancia entre los dos estantes. Si se le suministra menos energía, no podrá subir y se quedará en el mismo estante; si se le suministra más, sólo empleará la necesaria para alcanzar el estante superior.
Como ejemplo de dos transferencias de energía como las comentadas tenemos el de una bombilla normal. El flujo de electrones libres a lo largo del filamento transfiere parte de su energía de movimiento a los electrones de los átomos del material que constituye dicho filamento.
Esto ocasiona que salten a un nivel de energía superior, pero como ese nivel es inestable (ya que hay otro inferior) vuelven a bajar desprendiendo un fotón con la diferencia de energía existente entre los dos niveles.

Diferencias entre la luz normal y el rayo láser

Inicialmente se dijo que el láser es un tipo especial de luz. Las características que lo diferencian de la luz generada por las bombillas o por el Sol es que el rayo láser es un haz de luz monodireccional, monocromático y coherente. A continuación se explican los tres términos.
Una onda electromagnética se desplaza con una velocidad que depende del medio por el que viaje (en el vacío son 300 000 kilómetros por segundo, pero en otros medios es más lenta) y con una dirección fija. Pero un emisor de luz, como una bombilla o un láser, no emite una sola onda, sino millones de ellas, pudiendo tener todas la misma dirección, como sucede en el láser, o tener cada una dirección distinta, que es el caso de la bombilla.
En este caso la luz es omnidireccional, se transmite en todas direcciones, mientras que la del láser es monodireccional, va en una sola dirección.
El segundo término de la definición es monocromática. Significa que todas las ondas tienen la misma frecuencia, y por tanto el mismo color, ya que el color de una luz depende de su frecuencia. En una bombilla normal, el filamento está compuesto de múltiples átomos y moléculas distintos, y por tanto la energía que se absorbe y desprende en forma de fotones puede adoptar muchos valores.
Según la fórmula de Planck dada anteriormente (E = h · f) la frecuencia del fotón depende de su energía, por lo que al variar la energía, variará la frecuencia emitida. Como resultado se obtiene que la luz desprendida por la bombilla posee múltiples frecuencias que dependen del filamento empleado.

 n un láser, la luz la produce un gas o un sólido muy purificados, o un sólido con estructura cristalina; en ellos todos los átomos poseen los mismos niveles energéticos, por lo que todos los fotones generados poseen la misma energía y frecuencia.
Aparte de los láseres, existen otros sistemas de producción de luz monocromática, como las lámparas de descarga que emplean gases purificados, pero carecen de las otras dos características, monodireccionalidad y coherencia.
El último término es coherencia. Toda onda electromagnética, por su propia naturaleza de señal alterna, cambia constantemente de valor, variación que normalmente tiene forma de curva senoidal. La parte de la curva senoidal en que está la onda en un momento dado y en una posición dada se denomina fase. Tomando dos ondas de la misma dirección y frecuencia, normalmente cada una estará en una fase distinta.
Una, por ejemplo, puede hallarse en un máximo y la otra en un mínimo, en cuyo caso se anularían, o una con un valor instantáneo cero y la otra con un valor de 3/4 del máximo. También puede darse la situación en la que ambas señales tengan la misma fase y por tanto los mismos valores siempre, con lo cual el efecto resultante a escala macroscópica es similar a una onda con el doble de tamaño.
En la luz normal las ondas no se hallan en fase, y gran parte de la energía que llevan se pierde al anularse unas señales con otras. En cambio, en el láser todas las ondas tienen la misma fase, por esta razón se dice que es un haz coherente y la energía obtenida es la máxima posible, al no anularse ninguna onda.

Emisión estimulada de luz

Al explicar las interacciones entre fotones y átomos, se comentó la absorción de la energía de un fotón por un electrón y la emisión espontánea de energía por un electrón en forma de fotón. Existe una tercera interacción que es la emisión estimulada de fotones.
Ésta se produce cuando al lado de un electrón que se halla en un estado excitado, es decir, con una energía superior a la normal, pasa un fotón con una energía igual a la que posee el electrón excitado. Este paso del fotón «estimula» al electrón a pasar al nivel inferior de energía y a liberar un fotón con la misma dirección, frecuencia (ya que posee la misma energía) y fase que el fotón que estimuló la emisión, con lo cual ya hay dos fotones iguales.
Este tipo de emisión no se produce en condiciones normales. Cuando un electrón es excitado, vuelve muy rápidamente a su nivel normal. Este hecho, unido a que la energía recibida del exterior no suele ser lo suficientemente elevada como para proporcionar energía para todos los electrones del material, hace que haya más electrones en estado de reposo que excitados.
Todo fotón que entra tiene más posibilidades de encontrar un electrón en reposo que le absorba. En cambio, la posibilidad de encontrar uno excitado para originar una emisión estimulada es muy pequeña. La poca emisión estimulada que se produce se absorbe por otros electrones en reposo, anulándose dicho efecto.
La diferencia entre la luz producida por una emisión espontánea de un electrón que no necesita estímulo y una emisión estimulada, es que esta segunda genera un haz coherente.
En una emisión espontánea el electrón emite el fotón en un momento cualquiera, y los fotones no tienen por qué estar en fase, ni moverse en la misma dirección. En la emisión estimulada, el fotón incidente obliga a que se conserve la dirección, la frecuencia y la fase.





domingo, 5 de junio de 2016

La nanotecnologia

Que es Nanotecnología?



Definición de Nanotecnología

  Nanotecnología, es el estudio y desarrollo de sistemas en escala nanométrica, “nano” es un prefijo del Sistema Internacional de Unidades  que viene del griego νάνος que significa enano, y corresponde a un factor 10^-9,  que aplicado a las unidades de longitud, corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1 Nanómetro, la nanotecnología estudia la materia desde un nivel de resolución nanométrico, entre 1 y 100Nanómetrosaprox.  hay que saber que un átomo mide menos de 1 nanómetro pero una molécula puede ser mayor, en esta escala se observan propiedades y fenómenos totalmente nuevos,  que se rigen bajo las leyes de la Mecánica Cuántica, estas nuevas propiedades son las que los científicos aprovechan para crear nuevos materiales (nanomateriales) o  dispositivos nanotecnológicos, de esta forma la Nanotecnología promete soluciones a múltiples problemas que enfrenta actualmente la humanidad, como los ambientales, energéticos, de salud (nanomedicina), y muchos otros, sin embargo estas nuevas tecnologías pueden conllevar a riesgos y peligros si son mal utilizadas.
  La siguiente imagen  muestra la unidad de medida de diversos sistemas,  y la escala a la que pertenecen (Nano o Micro).


Historia de la Nanotecnología

  
Uno de lo pioneros en el campo de la Nanotecnología es el Físico estadounidense Richard Feynman, que en el año 1959 en un congreso de la sociedad americana de Física en Calltech, pronunció el discurso “There’s Plenty of Room at the Bottom” (Hay mucho espacio ahí abajo) en el que describe un proceso que permitiría manipular átomos y moléculas en f
orma individual, a través de instrumentos de gran precisión, de esta forma se podrían diseñar y construir sistemas en la nanoescala átomo por átomo, en este discurso Feynman también advierte que las propiedades de estos sistemas nanométricos, serían distintas a las presentes en la macroescala.
 En 1981 el Ingeniero estadounide nse Eric Drexler, inspirado en el discurso de Feynman, publica en la revista  Proceedings of the National Academy of Sciences, el artículo “Molecular engineering: An approach to the development of general capabilities for molecular manipulation” en donde describe mas en detalle lo descrito años anteriores por Feynman.  El término “Nanotecnología” fue aplicado por primera vez por Drexler en el año 1986, en su libro “Motores de la creación : la próxima era de la Nanotecnología” en la que describe una máquina nanotecnológica con capacidad de autoreplicarse, en este contexto propuso el término de “plaga gris” para referirse a lo que sucedería si un nanobot autoreplicante  fuera liberado al ambiente.

  Además de Drexler, el científico Japonés Norio Taniguchi, utilizó por primera vez el término nano-tecnología en el año 1974, en la que define a la nano-tecnología como el procesamiento, separación y manipulación de materiales átomo por átomo.


Impresora 3D

EL HOGAR DEL FUTURO SE MOLDEA EN UNA IMPRESORA 3D


Las primeras impresoras 3D se crearon en los ochentas. Sin embargo, su auge se ha dado en los últimos años gracias a nuevas necesidades del consumidor. Los dispositivos se utilizan para la experimentación y el avance científico, pero su gran demanda nace por los beneficios que puede para el hogar. La impresión 3D será clave para el crecimiento de los hogares inteligentes.

Del plato al plato

Las primeras impresoras 3D tenían una función enfocada a la maquinaria. Se siguen utilizando para moldear metales derritiéndolos para crear estructuras sin moldes. La cantidad de energía y los riesgos de manejo tienen estas potentes maquinas lejos de los usuarios. Por suerte, las fibras de termoplástico solucionaron los riesgos de manipulación, son mucho más baratos que una lamina de metal y las máquinas pueden ser más pequeñas y accesibles para el consumidor.
El termoplástico tiene la ventaja de ser moldeable a temperaturas bajas; algunos se pueden moldear incluso con un secador de pelo. Esto permitió el nacimiento de impresoras 3D como ‘Cubify’, la cual deja imprimir objetos pequeños con facilidad. Gracias a estas impresoras nacieron nuevos mercados que venden platos plásticos, jarrones, utilería para el escritorio, pequeñas decoraciones y fotografías personales como muñequitos coleccionables.



El nacimiento de estos mercados impulsó a nuevos ingenieros a explotar más el recurso de los termoplásticos y las impresoras. Actualmente hay algunas máquinas caseras de gran escala que utilizan los termoplásticos para estructuras más grandes. ‘BigRep’ es una de ellas, convirtiéndose en la primera impresora casera para imprimir muebles. También está la iniciativa de proyectos como ‘The 3D Print Canal House’ que busca construir una casa de 13 habitaciones con sólo estructuras construidas en plásticos, ya que podría disminuir el valor de los materiales, construcción y tiempos de transporte.
Paralelamente, la ciencia no se quedó atrás. Los científicos y diseñadores comenzaron a experimentar con la impresión 3D haciendo férulas y reemplazando estructuras del cuerpo; luego utilizando materiales orgánicos para recrear comida e incluso células madre. Experimentos que por su éxito están impulsando la creación de impresoras de material orgánico como ‘Foodini’, una impresora 3D que lo ayudará a preparar sus platillos favoritos. Muchas de ellas son impulsadas por sitios de crowdfunding como Kickstarter e Indiegogo.

A ir comprando materiales



Todos los productos llegan en un principio a precios altos, mientras las tecnologías se abaratan y la demanda crece. Las primeras impresoras estaban sobre los 6.000 dólares y poco a poco han bajado (en especial las que son financiadas por sitios de crowdfunding). ‘Cubify’ es una impresora de buena calidad y pequeña que está entre los 1.700 y 2.300 dólares. Una impresora de gran escala como ‘BigRep’ está por encima de los 35.000 dólares por su gran tamaño y porque no hay muchas de su clase.
Sin embargo, la producción en masa y las nuevas tecnologías permiten que se comiencen a disminuir los precios. ‘Foodini’ apunta a que sus impresoras no pasen de los 1.300 dólares y actualmente hay otras como ‘The Buccaneer’ que están sobre los 500 dólares.


No pasaran muchos años antes de ver que en todas las casas hay una impresora 3D. Algunas personas gustan de renovar sus decoraciones, encuentran modelos exóticos y diseñan sus propios objetos. Los hogares del futuro llevaran a muchas personas a estar en contacto con su lado creativo para sacar el mayor provecho a estas nuevas tecnologías.


Telefonos Avanzados

LOS TELÉFONOS MÓVILES MAS AVANZADOS

OPPO N1



Una de las marcas de telefonía china más conocidas. Un smartphone que destaca por su diseño moderno, aunque no tan novedoso como cabría esperar. Tiene dos cámaras, delantera y trasera, y panel táctil trasero. Tiene una cámara 13 MP y f/2.0, además de contar con Android 4.2.2.

MOTOROLA DROID 5

Motorola parece que trabaja desde hace meses en el smartphone que consiga volver a situarla entre los más vendidos de la telefonía móvil. Aunque podamos pensar que este smartphone tiene el aspecto de teléfonos deslizantes de hace años, es lo más nuevo de Motorol con una pantalla de más de cuatro pulgadas.

ASUS FONEPAD NOTE FHD6


Un smartphone que puede sorprenderos es lo nuevo de Asus. Un dispositivo de 6 pulgadas de pantallade tipo Super IPS+, con resolución FullHD (1920×1080 píxeles) que resulta en 367 ppp. . Un procesador Intel Atom Z2560 y  2 GB de memoria RAM. El sistema operartivo es Android 4.2 Jelly Bean.

LG Z


Una imagen vale más que mil palabras. El nuevo smartphone de LG, el LG Z,destaca por su flexibilidad y nunca mejor dicho. La pantalla de este dispositivo va  a ser cóncava, parecida a la la de una pantalla OLED curva de TV. También será Full HD, la misma que incorpora el también anunciado LG G2.

NOKIA LUMIA 1520


Nokia nos ha sorprendido gratamente con el Lumia 1020, pero en breve sacará el Nokia Lumia 1520 que destacará principalmente por sus cuatro micrófonos.

BONUS TRACK

GALAPAD SETTLER



El Galapad Settler da la bienvenida a una nueva generación de dispositivos móviles más resistentes y tecnológicos. La compañía china Galapad pretende invadir los mercados mundiales con un smartphone fabricado con grafeno como material predominante; un elemento más duro que el acero que dispone de numerosas ventajas frente a otros componentes usados hoy en día. El grafeno es además un excelente conductor de la electricidad, no sobrecalienta las baterías ni otros sistemas de alimentación y, al ser utilizado en la pantalla del teléfono móvil, mejoraría la sensibilidad táctil y el brillo de colores, ya que absorbe el 97,7% de la luz.
Entre sus características destaca su pantalla de 5,4 pulgadas con resolución Full HD y procesador Qualcomm Snapdragon 410 quad core de 64 bits. Incluye además una RAM de 2 GB, conectividad 4G LTE y hasta 16 GB de almacenamiento interno. Movido por el sistema operativo Android 4.4 KitKat, el Galapad Setter viene de serie con una cámara trasera de 8 megapíxeles y una delantera de hasta 5 mpx. ¿Su precio? Unos 360 euros, aunque nada se sabe aun de su lanzamiento al mercado internacional.

NOKIA 1100



¿Recuerdas el fabuloso y monocromático Nokia 1100 lanzado en 2003? Pues todo parece indicar que aquél dispositivo “superventas” podría volver, obviamente, mucho más evolucionado y adaptado a los tiempos que corren. Tras lanzar su primera tablet (N1), Nokia parece sentir nostalgia por el pasado y para 2016 está preparando lo que la empresa finlandesa llama internamente el 1100. Por supuesto, este es el nombre interno para su nuevo proyecto de smartphone y aun no se conoce su nomenclatura para los mercados mundiales. De momento, las informaciones indican que el teléfono usará de primeras el sistema operativo Android 5.0 Lollipop y que contará con un procesador MediaTek de cuatro núcleos.

IPHONE 6


El número uno de nuestro Top 10 tiene que ser como no, el próximo iPhone de Apple. Acaban de lanzar los iPhone 5S y los iPhone 5C, pero ya se habla del iPhone 6 del que se rumorean cosas como una pantalla de 4,7 pulgadas, que será un 40% más delgado y con un ahorro de energía de hasta un 90%.


Telefonos mas avanzados

LOS TELÉFONOS MÓVILES MAS AVANZADOS

SAMSUNG GALAXY S6 Y S6 EDGE


La penúltima maravilla tecnológica de Samsung se llama Galaxy 6 y viene acompañado de otro modelo denominado S6 Edge que se caracteriza por sus dos pantallas curvas en los laterales.
El Galaxy S6 salió a la venta allá por el mes de marzo de 2015 y ahora mismo sigue siendo uno de los teléfonos móviles punteros que hay en el mercado. Destacan, entre muchas otras cosas, su diseño y acabados de auténtico lujo en metal y aluminio, sus cámara delantera de 5 Megapixels y trasera de 16.
Otra de sus jugosas novedades seguro que agradan a los más jugones, y es que el Galaxy S6 también destaca por su pantalla QHD HD Super AMOLED y 5’1 pulgadas. Además, viene equipado con su propio dispositivo VR para disfrutar de la realidad virtual en cualquier lugar.
Sin duda, es uno de los móviles del momento.

LG G4



LG es otra de las marcas destacadas en los terminales de teléfono y sus dispositivos siempre están pugnando por ser los mejores del mercado. El LG G4 no es una excepción, ya que vuelve a estar entre los mejores teléfonos de gama alta que podemos tener, a un precio de unos 500 euros.
El LG G4 monta un procesador Snapdragon 808, tiene una pantalla de 5’5 pulgadas con una resolución de 2560 x 1440 píxels. Su cámara delantera es de 8 MP, mientas que la traser aes de 16 MP. Uno de los terminales más atractivos del momento, con el que podrás hacer todo lo que te imagines (o casi).

HTC ONE M9


Otro de los móviles más destacados del momento, aunque también es cierto que HTC lleva un tiempo arriesgando muy poco y presentando un modelo muy similar año tras año. Da la sensación de que van muy sobre seguro. A pesar de todo, es un muy buen teléfono, con cámara delantera de 4 MP y trasera de 20,7 MP. Su pantalla es de 5 pulgadas, con resolución de 1920 x 1080 pixels. Incorpora un procesador Qualcomn Snapdragon 810.
¿Su precio? Pues alrededor de los 500 euros.

SONY XPERIA Z3, Z3 COMPACT Y Z3+

La gama alta del Xperia de Sony ha vuelto a la carga con tres nuevos modelos, el Xperia Z3, el Z3 Compact y el Z3+.
Entre las mayores virtudes de la gama Z3 de Xperia podemos citar la gran resistencia a golpes, polvo o agua, una buena duración de la batería, la calidad del sonido de los altavoces y una de las mejores cámaras traseras de todo el catálogo de teléfonos móviles. Este móvil ya tiene un tiempo pero, a falta de que salga algo mejor, sigue siendo un móvil muy actual. 

NEXUS 5



El nuevo teléfono de Google lleva por nombre Nexus 5. Un smartphone que por lo visto cuenta ya con la nueva actualización del sistema Android, el nuevo Android 4.4 KitKat. Tiene pantalla de cinco pulgadas con resolución Full HD, con una cámara de ocho megapíxeles.