Los autos voladores del futuro que creíamos que eran pura
ciencia ficción de las películas parece que comenzarán a ser una realidad. Si
bien no es el primer concepto de coche volador, el Aeromobil 3.0 ha sido
anunciado que estará a la venta en el 2017, de acuerdo con su fabricante de
origen eslovaco; el vehículo/aeronave puede conducirse en caminos normales y
despegar desde una franja de pasto.
Años antes el Terrafugia Transition se había hecho de fama
por ser uno de los primeros prototipos realizados físicamente, pero no llegaron
a realizar producción para la venta al público. Finalmente, el tan esperado
auto volador ya casi está aquí. AeroMobil, es una empresa eslovaca, la cuál
planea comenzar a vender su creación denominada Aeromobil 3.0, en 2017.
Según el sitio web de la empresa, se dice que el vehículo
volador se transforma en segundos de un automóvil a un avión utilizando la
infraestructura existente creada para automóviles y aviones.
El vehículo funciona con gasolina y tiene alas que se
pliegan, lo cual permite que se estacione como un auto, aunque a diferencia de
un auto convencional, este tiene casi 6 metros de largo.
Además de otra información, en el sitio web de la compañía
se presenta un vídeo en el que se puede ver al AeroMobil 3.0 como es conducido
fuera de un hangar espacial y a través de una carretera, compartiendo el camino
con automóviles normales hasta que llega a una pista de aterrizaje. El auto
entonces despliega sus alas y despega desde un tramo de pasto, en lugar de una
pista pavimentada y vuela como cualquier otro avión pequeño.
La empresa no se ha aventurado a decir algún precio, pues la
producción aun no se pone en marcha. El prototipo es un trabajo en progreso,
dijo Stefan Vadocz, portavoz de la empresa Aeromobil. Sin embargo, añadió que
espera que el precio ronde los cientos de miles de euros, algo entre un auto
deportivo y una aeronave deportiva ligera, un lujo exclusivo para algunas
personas millonarias.
El vehículo tiene una capacidad para dos personas -el piloto
y un pasajero- y su única hélice se encuentra en la parte trasera del
coche/avión.
La velocidad máxima del vehículo en la carretera es de al
menos 160 kilómetros por hora y durante el vuelo es de al menos 200 kilómetros
por hora. Puede volar 700 kilómetros antes de quedarse sin gasolina, según
datos informativos de la empresa.
El Aeromobil 3.0 tendrá una estructura de acero y
revestimiento de carbono y es impulsado por un Rotax 912, un motor de avión de
cuatro cilindros de la compañía austriaca BRP.
Aunque los autos voladores no son exactamente nuevos. El
concepto ha existido desde mucho antes de que en la caricatura de Los
supersónicos lo popularizaran en la década de 1960. Desde entonces ha sido un
tema habitual en Popular Science desde que el piloto de la Primera Guerra
Mundial Eddie Rickenbacker escribiera sobre él en 1924.
Pero hacer despegar un auto volador desde la tierra ha sido
un serio desafío. Glenn Curtiss, un rival de los hermanos Wright, descubrió
esto en 1918 cuando desarrolló el Curtiss Autoplane. Resultó ser más de
saltador que volador, por lo que no logró posicionarse entre el público.
El AeroMobil 3.0 tiene al menos un competidor, el Terrafugia
Transition, que también funciona con gasolina y tiene alas plegables.
Terrafugia ha dicho que planea lanzar a la venta el Transition al mercado este
año.
Tecnología Biométrica, el futuro de la seguridad para
móviles
Con las nuevas amenazas informáticas y de acceso a
dispositivos móviles, los usuarios esperan una nueva generación de seguridad.
Según un estudio hecho por Ericsson, el 52% de los usuarios de móviles espera
que en el 2014 se implemente un sistema completo de seguridad biométrica, donde
la huella digital o el iris del ojo, sea la llave para acceder a nuestro
dispositivo de comunicación.
Los sistemas Biométricos llevan años desarrollándose, pero
apenas recientemente se perfilan como una posible solución masiva, para elevar
los sistemas de seguridad y acceso a dispositivos de telefonía móvil. En la
actualidad, se puede ver este tipo de tecnología para ingresar a oficinas,
gimnasios e incluso, a estadios. Con la llegada de la tecnología Touch ID, se
podrán capturar las huellas digitales desde la pantalla del dispositivo, lo que
permitiría realizar una verificación de identidad, que permita solamente al
dueño del dispositivo desbloquear el móvil, sin tener la necesidad de utilizar
contraseña, ya que nuestra propia huella sería la contraseña más fuerte e
infranqueable para cualquier pirata.
El inicio de esta nueva tecnología se podrá probar en el
iPhone 5S y en el Tablet de la casa HTC llamado One Max. Además, otros
dispositivos electrónicos como las consolas de videojuegos Xbox One y PS 4,
también estarían utilizando una tecnología similar para el reconocimiento del
iris del usuario. También, se perfila el Lenovo ThinkPad 2 como usuario de
dicha tecnología de seguridad.
Todo parece indicar que estamos ante el inicio de una nueva
era en sistemas de seguridad para dispositivos móviles, los cuales, permitirán
sólo al usuario o dueño del dispositivo poder utilizar el móvil, tablet o
cualquier otro equipo que utilice la seguridad biométrica. De esta manera, se
pretende disminuir robos y por supuesto, accesos no autorizados.
Pero esta tecnología podría ir mucho más allá, ya que no
solamente podrá ser utilizada para desbloquear el equipo, o para autorizar
comprar en eBay o Amazon, ya que también se podrá aplicar para ingresar a
cuentas de e-mail, cuentas de bancos y una enorme cantidad de ingresos que
requieran contraseñas, lo que no sólo disminuirá los delitos informáticos, sino
que también marcará el fin de la era de las contraseñas, que muchas veces se
nos olvidaban o simplemente, nos eran robadas.
Sin embargo, el sistema tiene debilidades que de seguro,
serán explotadas por los piratas informáticos, es por esta razón, que los
expertos recomiendan combinar dicha tecnología con otro sistema de
autentificación. Sólo nos resta esperar a ver, cómo se desarrolla esta nueva
tecnología de seguridad en dispositivos móviles.
Desde la introducción de Android a mediados-finales de 2008
con el T-Mobile G1, se supo que Google estaría impulsando el concepto de
computación en la nuble (Cloud Computing en su definición original en Inglés) a
través de servicios que poco a poco han sido adaptados a los Smartphones y que
en su conjunto, han creado una de las mejores experiencias de conectividad y
comunicación que ha creado una base de usuarios de casi 200 millones de
usuarios alrededor del mundo y con ello, un negocio multi-billonario para todos
los actores involucrados, desde los operadores celulares y tiendas que
comercializan los equipos, pasando por los desarrolladores de soluciones,
software y aplicaciones, el mercado de accesorios para dichos dispositivos y
claro, para la propia empresa que lo respalda: Google, que a través de un
modelo de publicidad, permite rentabilizar casi cualquier servicio que haga
llegar a los smartphones y computadoras.
La idea detras del cloud computing es utilizar Internet de
manera masiva en lo que anteriormente era procesado por las computadoras de
manera local, es decir, que en vez de que utilizemos los recursos de hardware
presentes en nuestras computadoras, Internet hace posible que utilizemos
enormes y potentes computadoras llamadas servidores que han dichas tareas por
nuestras computadoras y dispositivos móviles.
El término no significaba gran cosa hasta hace poco, cuando
las grandes empresas de electrónicos, como Apple con iCloud, comenzaron a
masificar el término, “educando” así a los consumidores que están cada vez más
conscientes de las ventajas que significa el uso de “La Nube” en las tareas
diarias a través de sus computadoras y Smartphones.
La realidad es que hoy en día ya hay millones de usuarios
que utilizan “Cloud Computing” sin si quiera darse cuenta o estar conscientes de
ello y dado que las ventajas de ésta tendencia no sólo se reflejan en los
consumidores, las empresas estarán diseñando sus servicios cada vez con mayor
frecuencia inspirados en la arquitectura de “la nube”, siendo que con ello, es
posible ofrecer mejores y más rapidos servicios a través de Internet.
No pasarán más de 3 años antes de que el uso del Cloud
Computing se extienda a lo largo y ancho del planeta tierra y llegue a los
rincones conectados más remotos y más alla, hasta el propio espacio en la
Estación Espacial Internacional.. Si
compartir información es algo fácil y ya rutinario en nuestro presente 2011, el
Cloud Computing habilitará las mejores y más relucientes capacidades de
internet, en las que ya no existirán limitantes entre formatos, compatibilidad
de sistemas operativos ni molestos contratiempos al momento de enviar archivos
(multimedia o de trabajo) a cualquier parte del mundo y todo esto en fracciones
de segundo.
Además, el uso del Cloud Computing tiene también el
potencial de cambiar para siempre el desarrollo y uso de software en la forma
de aplicaciones (Móviles o Fijas) ya que en teoría, una vez que los estándares
se asienten entre las empresas competidoras, sería posible hablar de que lo
único que requerirían las computadoras y dispositivos móviles sería una
conexión a internet para acceder a su Sistema Operativo, concepto que ha estado
rondando en algunos pocos ambientes corporativos pero que podría llegar a
masificarse una vez que otra de las tendencias de las que hablaremos aquí en
PoderPDA, también se vuelva cotidiana en todo el globo.
En el año 2005 escribí una editorial “Vistazo al Futuro del
Cómputo Móvil” (el cual he rescatado recientemente..) en el que exploraba las
posibilidades de lo que hoy en el presente y que utilizamos habitualmente y
llevamos con nosotros en nuestros bolsillos o en la cintura todo el tiempo: Los
Smartphones.
Si bien la evolución de la forma de los dispositivos móviles
ha evolucionado mucho desde sus inicios a finales de los 90´s, la realidad es
que algo de la genética principal se ha mantenido y es que la pantalla de
nuestros Smartphones, aún con todos los miles de pixeles que ahora cuentan, con
tecnología que permite mostrar millones de colores y con una definición
sorprendente, sigue siendo en su amplísima mayoría y escencia, un pedazo duro
de distintos materiales que imposibilita la divergencia en el diseño de los
Smartphones.
Es por eso que en los últimos años, el desarrollo de
pantallas flexibles ha tomado gran relevancia en los laboratorios de
investigación de fabricantes y proveedores de componentes electrónicos, ya que
dentro de muy poco (calculo 2 a 3 años), los fabricantes se verán forzados a
innovar más allá de la clasica forma de “lozeta multitáctil” que hoy observamos
en más del 90% de los dispositivos móviles de gama alta.
Mucho se ha hablado sobre los conceptos de diseño que
podremos ver en el futuro a mediano plazo, una vez que los problemas de
producción y fabricación masiva de pantallas flexibles sean resueltos claro
está, entre los cuales encontramos al Nokia Morph que va más allá de la
flexibilidad y se integra de lleno en la nanotecnología, cuestión que en mi
opinión, aún se encuentra a más de una década de distancia en cuanto a su integración
masiva en la vida diaria.
Es cierto que la tendencia está apenas en plena formación y
que su desarrollo como tecnología de consumo aún dista algunos años antes de
que contemos con dispositivos totalmente flexibles, si bien ya hemos visto con
anterioridad algunos prototipos como el Paper Phone, del que publicamos algo en
Mayo pasado (2011).
Una de las empresas que más se está esforzando en esta
cuestión de las pantallas flexibles es Samsung, quien ha ido tan lejos como
fabricar el primer Smartphone de corte masivo, el Nexus S, con una pantalla
ligeramente curveada. Sinceramente, tengo todas las expectativas puestas sobre
Samsung, siendo el actual líder en Smartphones a nivel mundial. Hace poco, en Agosto pasado, también les
publicamos sobre un conocepto de Smartphone, un Samsung Galaxy Flexible.
Es posible también que las pantallas flexibles den pié a un
nuevo nivel de convergencia, uno que permita que nuestro Smartphone se
convierta en nuestra computadora (o tablet) y de ésta manera, contar realmente
con un único dispositivo que domine nuestra comunicación y acceso a internet…
ya el tiempo nos lo dirá.
Los operadores celulares del mundo entero han experimentado
un enorme crecimiento en el uso de sus redes de telecomunicaciones en los
últimos años, mayormente bajo tecnologías 2G (GSM EDGE, 1xRTT, etc..) y
tecnologías celulares 3G (EvDO, UMTS, HSDPA, etc..) siendo que la demanda ha
superado por mucho a la oferta, lo que ha ocasionado caídas y severos problemas
de tráfico en dichas redes, que se convierten en incomunicación y desconexión
hacia los usuarios.
En México no hemos sido ajenos a esta situación y las caidas
de señal, problemas en la conmutación así como saturaciones repentinas de las
redes cada vez son más frecuentes. Operadores celulares grandes como Telcel o
AT&T en Estados Unidos incluso han reconocido públicamente que sus redes
han sido rebasadas por el uso de internet móvil desde Smartphones, mientras que
operadores más pequeños como Iusacell, han tenido múltiples caidas severas en
sus redes durante los últimos meses de éste 2011.
La razón primordial es que durante años los operadores
celulares se enriquecieron con el uso de servicios menos complejos como los
mensajes de texto (sms) o descargas de ringtones y “contenido multimedia”,
cuestiones que no son tan demandantes en el uso de internet móvil. Sin embargo,
el auge casi repentino de los Smartphones tomó por sorpresa a la mayoría de los
operadores e instituciones de telecomunicaciones, quienes menospreciaron a los
dispositivos móviles inteligentes durante mucho tiempo, argumentando que al ser
equipos más caros nunca lograrían rebasar a los omnipresentes celulares
convencionales, algo que ya hoy en día es un pensamiento netamente ridículo.
Lamentablemente y afortunadamente estuve ahí para presenciar no una, si no
varias veces esta cuestion y al igual que muchos de los que hemos presenciado
de cerca la industria de las telecomunicaciones, puedo atestiguar que la
revolución de los smartphones no provino directamente de los operadores
celulares si no de las marcas y fabricantes de Smartphones quienes han empujado
los límites de lo posible de cara a los usuarios a lo largo de la última
década.
Actualmente, las velocidades alcanzadas en tecnología
celular 3G promedian menos de la mitad de lo que alguna vez fueron, cuestión
que no solo observamos en latinoamérica si no que impacta incluso en países y
regiones totalmente desarrollados como lo son Europa o Estados Unidos.
Lo más “triste”, si es que podemos catalogarlo bajo una
emoción.., es que el plan para que los operadores celulares amplien sus
negocios y por ende, la capacidad de sus redes de telecomunicaciones, radica en
la colocación de nuevas y “mejores” redes celulares, las cuales son ofrecidas a
los consumidores y a la industria en general en forma de un nuevo concepto de
velocidad: 4G.
Después de que la ITU otorgara el título de “4G” a la
tecnología HSPA+ que originalmente era considerada como tecnología de “3.5G” o
en el mejor de los casos “3.9G”, una inmensa oleada de operadores alrededor del
mundo han comenzado a vender la idea de que el paso entre una tecnología y
otra, es la mejor solución a los problemas de conectividad y velocidad de los
clientes, siendo corporativos o consumidores.
La realidad es que el problema va mucho más alla de la
terminología de marketing con el que denotan a las tecnologías de acceso móvil
3G o 4G y ello va directamente a la cuestión de que el espectro radioeléctrico
de los países es limitado y se está acabado rápidamente. Si a esto sumamos la
falta o el exceso de regulación por parte de los gobiernos alrededor del mundo
en torno al manejo del espectro radioeléctrico, pues la situación de los
operadores celulares se complica más, razón por la cual, licitaciones de
espectro son tan competidas y controversiales como lo hemos presenciado aquí
mismo en México con Televisa, Telcel, Movistar, Nextel y Iusacell actuando como
niños pequeños por una rebanada del pastel radioeléctrico…
La cuestión radica en que el acceso a internet móvil será
cada vez más necesario y a la vez su precio se mantendrá “estable” durante al
menos 2 o 3 años, siendo que para estas fechas del 2011, podríamos llegar a
hablar de algún tipo de “convenio secreto” entre operadores celulares para
evitar guerras de precio sin sentido que sólo abaratan el precio y eliminan la
rentabilidad de la venta de acceso a internet móvil.
Se está comenzando a hablar de que el 2013 será el año en
que los datos móviles dejarán de ser rentables, siendo que su continuo
abaratamiento y mayor demanda, está forzando a los operadores a invertir más en
costos operaciones y en cuestiones de ampliación de capacidad en sus redes,
costos que se reflejan en miles de millones de dólares que los operadores están
inviertiendo año con año tan sólo para mantener las paupérrimas velocidades que
hoy tenemos en nuestros smartphones, tarjetas bam y demás dispositivos
celulares con acceso a internet.
Aún así, el despliegue de redes HSPA+ de manera masiva, como
hoy se está haciendo con Telcel, con Telefónica Movistar y próximamente con
Nextel, además de Iusacell que comercializa su red GSM HSPA+ desde el pasado
2010, permitirá un leve espacio de “aire” en lo que las verdaderes redes 4G son
implementadas utilizando LTE en la mayoría de los casos, incluyendo claro está,
a Telcel LTE para el 2012 (<- enlace externo a SPK).
La diferencia en la forma de utilización del espectro entre
HSPA+ y LTE es distinta, aunque las pruebas y comprobaciones en países con
ambas redes han demostrado que la diferencia de cada al usuario es
relativamente mínima, tomando como referencia las diferencias entre la red LTE
de Verizon y la red HSPA+ de T-Mobile en Estados Unidos, siendo éste último
operador, el principal causante de que HSPA+ sea considerada como una
tecnología de 4G.
Actualmente, las limitaciones en el uso de GB en los planes
de datos 3G y “4G” de los operadores impiden que la experiencia de uso en
Smartphones sea totalmente fluida y sin interrupciones, además de no volver a
mencionar las caidas y saturaciones de redes, lo que significa que no todos los
usuarios tengan un acceso completo y sin reestricciones a la enorme gama de posibilidades
que ofrecen los Smartphones.
En los próximos años, la estabilización de las redes 3G y la
llegada de las verdaderas redes 4G bajo LTE o WiMAX permitirán una nueva era de
acceso móvil multimedia, algo que también va de la mano con el abaratamiento en
costos de fabricación para que más y más electrónicos, vehículos y
electrodomésticos tengan capacidades de comunicación inalámbrica celular y dar
pie a una nueva revolución en lo que a servicios web se refiere.
Ese mundo “100% conectado” del que tanto nos han hablado en
comerciales sin duda está llegando poco a poco y la tendencia consumista del
mundo sólo es capaz de acelerar el proceso en los próximos años. Siendo que
estoy seguro que a lo largo de la próxima década seremos testigos de cambios
aún más radicales en la forma en la que nos comunicamos, nos entretenemos y
hacemos negocios.
Dejé la cuestión de la IA (Inteligencia Artificial) hasta el
final porque sin duda será el cambio más radical e importante de todos de cara
al futuro próximo. Siendo que el término más popular hace una década en cuanto
a dispositivos móviles era PDA (“Asistente Digital Personal”, en Inglés
“Personal Digital Assistant”), los equipos que hemos usado desde principios de
la década hasta la actualidad en realidad han sido más herramientas con múltiples
capacidades que verdaderos “Asistentes Digitales”.
Sin embargo, la popularización del acceso a internet, el
desarrollo de procesadores y microcircuitos cada vez más potentes, la ubicuidad
de los Smartphones en las distintas sociedades del mundo y el abaratamiento y
consecuente masificación de todo lo anterior está dando paso a una nueva era en
la que la ciencia ficción se volverá cotidiana.
Definimos la palabra “Robot” como toda “Entidad Mecánica o
Virtual Artificial” y la imágen que nos evoca es la de robots humanoides
sirviendonos el desayuno por las mañanas o como máquinas despiadadas
desmembrando seres humanos… pero la realidad es que dentro de muy poco,
llevaremos “robots” en nuestros bolsillos.
El desarrollo de algoritmos de reconocimiento de voz, como
en el caso de Siri de Apple, o de la creación de servicios de búsqueda
semántica por parte de Google, permitirá que nuestros Smartphones comiencen a
ser más proactivos en nuestras vidas y sean realmente capaces de ayudarnos más
allá de ser herramientas en toda su complejidad o simplicidad.
Si bien el ser humano aún esta lejos de recrear una mente
humana, empresas como IBM están trabajando arduamente en el desarrollo de redes
neuronales artificiales que algún día lograrán replicar el complicado mecanismo
de lo que denominamos “pensar”.
Aún así, siendo que la inteligencia artificial podemos
ubicarla bajo cuatro puntos que son, el habla, la recolección de datos, la toma
de decisiones y la asimilación de autoconsciencia mediante múltples sensores,
la realidad es que nuestros Smartphones sólo tenderán a ser más y más
“inteligentes” y la integración de éstos en nuestra vida diaria sólo será mayor
a cada año que pase.
Por ahora resulta casi imposible pensar en el número de
escenarios en los que nuestros Smartphones con Inteligencia artificial podrían
ayudar o interactuar con nosotros, pero sólo basta con ver algunas películas
hollywoodenses de corte progresista (no destructivo) para darnos una idea de lo
que podríamos tener en nuestros bolsillos en los próximos años.
Particularmente encuentro sumamente interesante pensar en la
próxima generación de aplicaciones y usos que éstos dispositivos realmente
inteligentes podrían llegar a significar en nuestras vidas y sobre todo, cuál
sería el cúmulo de cambios que la humanidad estaría enfrentando bajo el
escenario de los Smartphones con Inteligencia Artificial.
Resulta casi cómico el pensar en usuarios que realmente
sentirían sentimientos frente a Smartphones que pasarían de ser simples
repositorios de información a ser verdaderos entes con capacidad de raciocinio
y habla, los cuales, tampoco resulta imposible llegar a pensar que algún dia en
los próximos 20 años, podrían convertirse en humanoides de acero y silicio.
Al respecto de la inteligencia artificial no me pregunto si
llegará o cuando estará en nuestros hogares y bolsillos, más bien me pregunto
cómo será el resultado y las consecuencias a mediano y largo plazo de esta
próxima generación convergente de tecnologías.
Los drones son vehículos terrestres o aéreos no tripulados
que se controlan a distancia. Los que vuelan también reciben el nombre de VANT
(vehículo aéreo no tripulado) o con sus correspondientes siglas en inglés UAV
La mayoría de los drones se manejan con radio control, pero
pueden ser también manejados y programadas mediante una tablet o un smartphone.
Lo que les diferencia con un vehículo de radiocontrol (coches teledirigidos,
aviones, helicopteros teledirigidos, etc) es que no necesitan una entrada constante
de datos por parte del operador y pueden ser capaces de volar por si mismos.
Tipos de drones y sus aplicaciones
Existen muchos tipos de drones diferentes en el mercado que
cubrirán todas las expectativas.
Los drones se pueden clasificar en dos grandes grupos:
civiles y militares. Cómo creemos que no eres un espía y nos estás leyendo para
comprarte un dron militar, en esta guía vamos a centrarnos en los diferentes
tipos de drones civiles.
1. Según la superficie por la que se desplacen pueden ser:
• Terrestres:
ésto no necesita mucha explicación. Son los que se mueven fundamentalmente por
el suelo.
• Aéreos:
aquellos drones preparados y diseñados para volar, equipados con rotores que
les confieren el movimiento y giroscopios para darles estabilidad.
2. Según el uso para el que están destinados podemos
clasificarlos en:
• Drones
recreativos: estos aparatos tienen como finalidad el entretenimiento. Son
capaces de realizar saltos, giros, vueltas y todo tipo de acrobacias. Mira en
este vídeo algunas de las piruetas con las que puede sorprendernos el Parrot
Mini Drone Jumping Sumo.
• Drones
para fotografía y vídeo: este otro tipo de drone está enfocado al vídeo y la
fotografía. Con ellos serás capaz de capturar todo tipo de escenas desde los
ángulos más increíbles. Grabar a tus amigos mientras hacen surf, haceos una
foto en la playa desde una perspectiva inaccesible o realizar una panorámica
desde lo alto de una montaña. Dentro de este tipo de drones encontraremos
modelos con la cámara incorporada, mientras que otros vendrán con una
estructura en la que acoplar tu equipo de grabación.
3. Los drones aéreos también se podrán clasificar por el
número de rotores:
• Cuadricóptero:
el vuelo lo consiguen através de 4 motores con hélices, dispuestos en forma de
cruz. Cuentan con giroscopios de diferentes ejes (3 ó 6) que les sirven para
conseguir la estabilidad en posición horizontal.
• Multicóptero:
se llaman así a los equipos con un número de motores mayores que 4. En el
mercado se pueden encontrar drones de 6 (haxacópteros) e incluso 8 rotores. Su
precio suele ser superior a los 2000 € y tienen un uso profesional: cine,
reconocimiento y vigilancia de incendios, etc.
Le dejamos este video que nos muestra las aplicaciones y el
futuro de esta tecnología en donde el ingeniero puede encontrar nuevos camino.
El rayo láser es un tipo especial
de luz que posee unas características físicas especiales que permiten su uso en
aplicaciones específicas. Aunque determinados modelos de generadores de rayos
láser puedan quemar o fundir objetos, ésta no es la principal utilidad que se
les puede dar. El láser se emplea como instrumento para transmitir información,
para grabación y recuperación de datos, música e imágenes en los discos
compactos, en giróscopos para aviones, para fabricación de circuitos integrados
y en medicina como bisturí cauterizante.
La tecnología empleada en el
diseño y construcción de dispositivos láser se basa en un fenómeno físico
conocido como emisión estimulada de radiación. Este tipo de emisión fue
enunciado por primera vez en 1916 por Albert Einstein, que definió las bases teóricas
por las que se regiría dicha emisión.
Pero no fue hasta 1928 cuando se
detectó la primera radiación de este tipo. Por aquella época todavía era
considerada una curiosidad científica sin aplicación práctica.
El primer dispositivo que se
construyó utilizando el concepto de emisión estimulada de radiación fue el
máser (iniciales de «microwave amplification by the stimulated emisión of
radiation» --«amplificación de microondas por la emisión estimulada de
radiación»--). El sistema empleaba un haz de moléculas que se separaba en dos
grupos, moléculas excitadas y moléculas no excitadas.
Las moléculas excitadas eran
empleadas para emitir microondas en una cámara de resonancia diseñada para
favorecer dicha emisión. Este máser fue diseñado y construido por Charles H.
Townes, de la Universidad de Columbia, en 1953, aunque simultáneamente y de
forma independiente, los doctores Aleksander M. Prokhorov y Nikolai Basov, del
Instituto de Física Lebedev de Moscú, publicaron un estudio teórico de las
condiciones requeridas para que un dispositivo de este tipo funcionara.
Una vez obtenido el máser, los
físicos empezaron a estudiar el método de producir el mismo tipo de radiación
estimulada en otras zonas del espectro, como la de la luz visible, cuyas
aplicaciones prácticas fueran de interés. Charles H. Townes entró a trabajar en
los laboratorios de investigación de la prestigiosa compañía Bell (después
llamada AT&T) y junto con Arthur L. Schawlow publicó un documento en 1958
en el que definía las diferencias principales que tenían que existir entre un
máser convencional y el que ellos denominaban «máser óptico».
Éste no era otro que el láser
actual. Pero este nombre (iniciales de «light amplification by the stimulated
emission of radiation» --«amplificación de luz por la emisión estimulada de
radiación»--) le fue dado por Gordon Gould, estudiante de la Universidad de
Columbia que hizo sus propios estudios independientes a la vez que Townes y
Schawlow, en 1957.
Una vez establecidos los
conceptos teóricos, se inició la carrera para construir el primer láser. Por un
lado, Gould, en unión de una compañía denominada TRG, consiguieron un contrato
del Pentágono para construir un láser con aplicaciones militares, mientras que
Schawlow realizaba otras investigaciones por separado.
En ambos casos, se consideraba
que el material base para producir la emisión estimulada de luz debía ser un
gas. En cambio, Theodore H. Maiman, físico que trabajaba en los laboratorios de
investigación de Hughes, empezó a trabajar con cristales de rubí sintéticos. Y
en 1960 presentó el primer láser de la historia, que constaba de un cristal de
rubí, que en sus dos extremos poseía espejos y que se activaba por medio de una
lámpara de flash produciendo un fino haz de luz roja.
A partir de ese momento, el
desarrollo del láser empezó a acelerarse vertiginosamente; el primer láser que
empleaba gas (una mezcla de helio y neón) fue producido en 1960 por Ali Javan y
dos compañeros de los laboratorios Bell. El año 1962 fue testigo de una carrera
entre grupos de investigación de General Electric, IBM y de los laboratorios
Lincoln del MIT (Instituto de Tecnología de Massachussetts) para producir un
diodo láser, obteniendo los tres resultados casi simultáneamente. En 1964 se
diseña uno de los láseres de potencia media más comunes a partir de entonces,
el denominado Neodimio-YAG.
En las últimas décadas las
investigaciones se centraron en el desarrollo de láseres de rayos X. Este tipo
de dispositivos tienen aplicaciones principalmente militares, por lo que no se
sabe mucho sobre su funcionamiento, aunque su característica más llamativa es
que la fuente de excitación no es la luz de un flash o una descarga eléctrica,
como en otros modelos, sino una explosión nuclear, ya que es la única fuente
abundante y rápida de rayos X.
Ondas y partículas
Toda la materia se compone de
átomos, que a su vez se componen de tres partículas básicas: electrones,
protones y neutrones. Los electrones tienen una masa muy pequeña y carga
negativa; los protones y neutrones poseen aproximadamente la misma masa, pero
mientras los protones tienen carga eléctrica positiva, los neutrones no tienen
carga. Cualquier elemento químico, hierro, oxígeno, carbono, etc. y los
compuestos que se obtienen juntando estos elementos, están constituidos por
combinaciones de estos tres tipos de partículas.
El concepto clásico de la física
de partículas define, además de las tres partículas elementales que se acaban
de citar, las ondas electromagnéticas. Dicho concepto define a las ondas como
portadoras de energía que no poseen masa, sino una frecuencia de oscilación que
varía en función de la energía que llevan; dicha dependencia se establece con
la fórmula E = h · f, donde f es la frecuencia de la onda electromagnética, E
la energía que lleva y h la denominada constante de Planck. Según esta concepción
clásica, las ondas y las partículas se hallan perfectamente diferenciadas. La
luz sería una onda, con una frecuencia muy elevada y sin masa. Esta diferencia
dejó de existir con la aparición de la física cuántica, que definió la teoría
onda-corpúsculo, unificando los dos conceptos.
Según la teoría onda-corpúsculo,
toda partícula, independientemente de su tamaño y otras características
físicas, puede considerarse como una onda electromagnética o como una partícula
física. Por ejemplo, los electrones se difractan al pasar por una rendija de
forma similar a la luz, pero también colisionan unos con otros como si fuesen
partículas. Según la física convencional, la energía que lleva una partícula en
movimiento, no sometida a ningún campo, es su energía cinética E = 1/2 m · v2.
Igualando esta fórmula con la relación de Planck dada anteriormente, se
establece una relación entre la masa, la velocidad y la frecuencia de la
onda-corpúsculo, que es: m = 2 h f / v2.
La teoría también puede aplicarse
a lo que convencionalmente se consideran ondas. La luz, por tanto, puede
considerarse también una onda-corpúsculo. Como onda electromagnética posee las
características físicas a que estamos acostumbrados, se difracta en las
rendijas, unas ondas crean interferencias en otras, se difractan en los
prismas, etc.
Si se considera a la luz como una
partícula, se obtienen algunos resultados inesperados. Dicha partícula se
denomina fotón, y en contra de la creencia habitual, tiene masa. Esta masa es
muy pequeña, casi inmedible, pero físicamente es de gran importancia e incluso
existen aplicaciones de los láser que se basan en dicha masa.
Emisión de luz por los átomos
Un átomo se compone de un núcleo
formado por una agrupación de protones y neutrones y de un conjunto de
electrones situados a cierta distancia alrededor del núcleo. Cada uno de estos
electrones posee una energía que depende de su distancia al núcleo. Esta
distancia posee una característica importante: está cuantificada. Esto
significa que un electrón no puede estar situado a cualquier distancia del núcleo
ni poseer cualquier cantidad de energía. En cambio existe una serie de niveles
de energía y de orbitales permitidos que son los únicos en los que se puede
hallar.
Para pasar de un nivel a otro más
alto el electrón absorbe una cantidad fija de energía, que es la diferencia
entre la energía que poseen los dos niveles. Cuando desciende de un nivel a
otro más bajo, desprende la misma cantidad de energía que absorbería para
saltar del más bajo al más alto.
Esta energía absorbida o emitida
puede tener diversas representaciones, puede ser energía rotacional, al girar
una molécula o átomo, energía vibracional de la partícula, que puede oscilar
como un péndulo, o se puede presentar también como la absorción o emisión de un
fotón, que es la que interesa para el funcionamiento del láser. El paso de un
electrón de un nivel de energía inferior a otro superior se produce siempre que
exteriormente reciba la suficiente energía.
El descenso de un nivel a otro
inferior se realiza en condiciones normales espontáneamente sin ayuda externa,
ya que el nivel más estable es el más bajo, desprendiéndose en el proceso la
energía correspondiente a la diferencia entre los dos niveles. El único
impedimento que puede existir para que un electrón descienda a un nivel
inferior es que dicho nivel ya esté completo.
Para comprender el proceso se
puede establecer una equivalencia con una serie de estantes colocados a
distintas alturas y con pelotas en algunos de ellos. La pelota situada en el
estante más inferior se quedará en él, ya que no puede bajar más, en cambio una
pelota situada en un nivel más elevado tenderá a caer disminuyendo su energía.
Para pasar del estante inferior a
uno superior es necesario subir la pelota, suministrándole una cantidad de
energía que tendrá que ser la necesaria para cubrir la distancia entre los dos
estantes. Si se le suministra menos energía, no podrá subir y se quedará en el
mismo estante; si se le suministra más, sólo empleará la necesaria para
alcanzar el estante superior.
Como ejemplo de dos transferencias
de energía como las comentadas tenemos el de una bombilla normal. El flujo de
electrones libres a lo largo del filamento transfiere parte de su energía de
movimiento a los electrones de los átomos del material que constituye dicho
filamento.
Esto ocasiona que salten a un
nivel de energía superior, pero como ese nivel es inestable (ya que hay otro
inferior) vuelven a bajar desprendiendo un fotón con la diferencia de energía
existente entre los dos niveles.
Diferencias entre la luz normal y el rayo láser
Inicialmente se dijo que el láser
es un tipo especial de luz. Las características que lo diferencian de la luz
generada por las bombillas o por el Sol es que el rayo láser es un haz de luz
monodireccional, monocromático y coherente. A continuación se explican los tres
términos.
Una onda electromagnética se
desplaza con una velocidad que depende del medio por el que viaje (en el vacío
son 300 000 kilómetros por segundo, pero en otros medios es más lenta) y con
una dirección fija. Pero un emisor de luz, como una bombilla o un láser, no
emite una sola onda, sino millones de ellas, pudiendo tener todas la misma
dirección, como sucede en el láser, o tener cada una dirección distinta, que es
el caso de la bombilla.
En este caso la luz es
omnidireccional, se transmite en todas direcciones, mientras que la del láser
es monodireccional, va en una sola dirección.
El segundo término de la
definición es monocromática. Significa que todas las ondas tienen la misma
frecuencia, y por tanto el mismo color, ya que el color de una luz depende de
su frecuencia. En una bombilla normal, el filamento está compuesto de múltiples
átomos y moléculas distintos, y por tanto la energía que se absorbe y desprende
en forma de fotones puede adoptar muchos valores.
Según la fórmula de Planck dada
anteriormente (E = h · f) la frecuencia del fotón depende de su energía, por lo
que al variar la energía, variará la frecuencia emitida. Como resultado se
obtiene que la luz desprendida por la bombilla posee múltiples frecuencias que
dependen del filamento empleado.
n un láser, la luz la produce un gas o un
sólido muy purificados, o un sólido con estructura cristalina; en ellos todos
los átomos poseen los mismos niveles energéticos, por lo que todos los fotones
generados poseen la misma energía y frecuencia.
Aparte de los láseres, existen
otros sistemas de producción de luz monocromática, como las lámparas de
descarga que emplean gases purificados, pero carecen de las otras dos
características, monodireccionalidad y coherencia.
El último término es coherencia.
Toda onda electromagnética, por su propia naturaleza de señal alterna, cambia
constantemente de valor, variación que normalmente tiene forma de curva senoidal.
La parte de la curva senoidal en que está la onda en un momento dado y en una
posición dada se denomina fase. Tomando dos ondas de la misma dirección y
frecuencia, normalmente cada una estará en una fase distinta.
Una, por ejemplo, puede hallarse
en un máximo y la otra en un mínimo, en cuyo caso se anularían, o una con un
valor instantáneo cero y la otra con un valor de 3/4 del máximo. También puede
darse la situación en la que ambas señales tengan la misma fase y por tanto los
mismos valores siempre, con lo cual el efecto resultante a escala macroscópica
es similar a una onda con el doble de tamaño.
En la luz normal las ondas no se
hallan en fase, y gran parte de la energía que llevan se pierde al anularse
unas señales con otras. En cambio, en el láser todas las ondas tienen la misma
fase, por esta razón se dice que es un haz coherente y la energía obtenida es
la máxima posible, al no anularse ninguna onda.
Emisión estimulada de luz
Al explicar las interacciones
entre fotones y átomos, se comentó la absorción de la energía de un fotón por
un electrón y la emisión espontánea de energía por un electrón en forma de
fotón. Existe una tercera interacción que es la emisión estimulada de fotones.
Ésta se produce cuando al lado de
un electrón que se halla en un estado excitado, es decir, con una energía
superior a la normal, pasa un fotón con una energía igual a la que posee el
electrón excitado. Este paso del fotón «estimula» al electrón a pasar al nivel
inferior de energía y a liberar un fotón con la misma dirección, frecuencia (ya
que posee la misma energía) y fase que el fotón que estimuló la emisión, con lo
cual ya hay dos fotones iguales.
Este tipo de emisión no se
produce en condiciones normales. Cuando un electrón es excitado, vuelve muy
rápidamente a su nivel normal. Este hecho, unido a que la energía recibida del
exterior no suele ser lo suficientemente elevada como para proporcionar energía
para todos los electrones del material, hace que haya más electrones en estado
de reposo que excitados.
Todo fotón que entra tiene más
posibilidades de encontrar un electrón en reposo que le absorba. En cambio, la
posibilidad de encontrar uno excitado para originar una emisión estimulada es
muy pequeña. La poca emisión estimulada que se produce se absorbe por otros electrones
en reposo, anulándose dicho efecto.
La diferencia entre la luz
producida por una emisión espontánea de un electrón que no necesita estímulo y
una emisión estimulada, es que esta segunda genera un haz coherente.
En una emisión espontánea el
electrón emite el fotón en un momento cualquiera, y los fotones no tienen por
qué estar en fase, ni moverse en la misma dirección. En la emisión estimulada,
el fotón incidente obliga a que se conserve la dirección, la frecuencia y la
fase.
Nanotecnología, es el estudio y desarrollo de
sistemas en escala nanométrica, “nano” es un prefijo del Sistema Internacional
de Unidades que viene del griego νάνος
que significa enano, y corresponde a un factor 10^-9, que aplicado a las unidades de longitud,
corresponde a una mil millonésima parte de un metro (10^-9 Metros) es decir 1
Nanómetro, la nanotecnología estudia la materia desde un nivel de resolución
nanométrico, entre 1 y 100Nanómetrosaprox.
hay que saber que un átomo mide menos de 1 nanómetro pero una molécula
puede ser mayor, en esta escala se observan propiedades y fenómenos totalmente
nuevos, que se rigen bajo las leyes de
la Mecánica Cuántica, estas nuevas propiedades son las que los científicos
aprovechan para crear nuevos materiales (nanomateriales) o dispositivos nanotecnológicos, de esta forma
la Nanotecnología promete soluciones a múltiples problemas que enfrenta
actualmente la humanidad, como los ambientales, energéticos, de salud
(nanomedicina), y muchos otros, sin embargo estas nuevas tecnologías pueden
conllevar a riesgos y peligros si son mal utilizadas.
La siguiente imagen muestra la unidad de medida de diversos
sistemas, y la escala a la que
pertenecen (Nano o Micro).
Historia de la
Nanotecnología
Uno de lo pioneros en el campo de la
Nanotecnología es el Físico estadounidense Richard Feynman, que en el año 1959
en un congreso de la sociedad americana de Física en Calltech, pronunció el
discurso “There’s Plenty of Room at the Bottom” (Hay mucho espacio ahí abajo)
en el que describe un proceso que permitiría manipular átomos y moléculas en
f
orma individual, a través de instrumentos de gran precisión, de esta forma se
podrían diseñar y construir sistemas en la nanoescala átomo por átomo, en este
discurso Feynman también advierte que las propiedades de estos sistemas
nanométricos, serían distintas a las presentes en la macroescala.
En 1981 el Ingeniero estadounide nse Eric
Drexler, inspirado en el discurso de Feynman, publica en la revista Proceedings of the National Academy of
Sciences, el artículo “Molecular engineering: An approach to the development of
general capabilities for molecular manipulation” en donde describe mas en
detalle lo descrito años anteriores por Feynman. El término “Nanotecnología” fue aplicado por
primera vez por Drexler en el año 1986, en su libro “Motores de la creación :
la próxima era de la Nanotecnología” en la que describe una máquina
nanotecnológica con capacidad de autoreplicarse, en este contexto propuso el
término de “plaga gris” para referirse a lo que sucedería si un nanobot
autoreplicante fuera liberado al
ambiente.
Además de Drexler, el científico Japonés
Norio Taniguchi, utilizó por primera vez el término nano-tecnología en el año
1974, en la que define a la nano-tecnología como el procesamiento, separación y
manipulación de materiales átomo por átomo.
Las primeras
impresoras 3D se crearon en los ochentas. Sin embargo, su auge se ha dado en
los últimos años gracias a nuevas necesidades del consumidor. Los dispositivos
se utilizan para la experimentación y el avance científico, pero su gran
demanda nace por los beneficios que puede para el hogar. La impresión 3D será
clave para el crecimiento de los hogares inteligentes.
Del plato al
plato
Las primeras
impresoras 3D tenían una función enfocada a la maquinaria. Se siguen utilizando
para moldear metales derritiéndolos para crear estructuras sin moldes. La
cantidad de energía y los riesgos de manejo tienen estas potentes maquinas
lejos de los usuarios. Por suerte, las fibras de termoplástico solucionaron los
riesgos de manipulación, son mucho más baratos que una lamina de metal y las
máquinas pueden ser más pequeñas y accesibles para el consumidor.
El
termoplástico tiene la ventaja de ser moldeable a temperaturas bajas; algunos
se pueden moldear incluso con un secador de pelo. Esto permitió el nacimiento
de impresoras 3D como ‘Cubify’, la cual deja imprimir objetos pequeños con
facilidad. Gracias a estas impresoras nacieron nuevos mercados que venden
platos plásticos, jarrones, utilería para el escritorio, pequeñas decoraciones
y fotografías personales como muñequitos coleccionables.
El nacimiento
de estos mercados impulsó a nuevos ingenieros a explotar más el recurso de los
termoplásticos y las impresoras. Actualmente hay algunas máquinas caseras de
gran escala que utilizan los termoplásticos para estructuras más grandes.
‘BigRep’ es una de ellas, convirtiéndose en la primera impresora casera para
imprimir muebles. También está la iniciativa de proyectos como ‘The 3D Print
Canal House’ que busca construir una casa de 13 habitaciones con sólo
estructuras construidas en plásticos, ya que podría disminuir el valor de los
materiales, construcción y tiempos de transporte.
Paralelamente,
la ciencia no se quedó atrás. Los científicos y diseñadores comenzaron a
experimentar con la impresión 3D haciendo férulas y reemplazando estructuras
del cuerpo; luego utilizando materiales orgánicos para recrear comida e incluso
células madre. Experimentos que por su éxito están impulsando la creación de
impresoras de material orgánico como ‘Foodini’, una impresora 3D que lo ayudará
a preparar sus platillos favoritos. Muchas de ellas son impulsadas por sitios
de crowdfunding como Kickstarter e Indiegogo.
A ir comprando
materiales
Todos los
productos llegan en un principio a precios altos, mientras las tecnologías se
abaratan y la demanda crece. Las primeras impresoras estaban sobre los 6.000
dólares y poco a poco han bajado (en especial las que son financiadas por
sitios de crowdfunding). ‘Cubify’ es una impresora de buena calidad y pequeña
que está entre los 1.700 y 2.300 dólares. Una impresora de gran escala como
‘BigRep’ está por encima de los 35.000 dólares por su gran tamaño y porque no
hay muchas de su clase.
Sin embargo,
la producción en masa y las nuevas tecnologías permiten que se comiencen a
disminuir los precios. ‘Foodini’ apunta a que sus impresoras no pasen de los
1.300 dólares y actualmente hay otras como ‘The Buccaneer’ que están sobre los
500 dólares.
No pasaran
muchos años antes de ver que en todas las casas hay una impresora 3D. Algunas
personas gustan de renovar sus decoraciones, encuentran modelos exóticos y
diseñan sus propios objetos. Los hogares del futuro llevaran a muchas personas
a estar en contacto con su lado creativo para sacar el mayor provecho a estas
nuevas tecnologías.
Una de las marcas de telefonía
china más conocidas. Un smartphone que destaca por su diseño moderno, aunque no
tan novedoso como cabría esperar. Tiene dos cámaras, delantera y trasera, y
panel táctil trasero. Tiene una cámara 13 MP y f/2.0, además de contar con
Android 4.2.2.
MOTOROLA DROID 5
Motorola parece que trabaja desde
hace meses en el smartphone que consiga volver a situarla entre los más
vendidos de la telefonía móvil. Aunque podamos pensar que este smartphone tiene
el aspecto de teléfonos deslizantes de hace años, es lo más nuevo de Motorol
con una pantalla de más de cuatro pulgadas.
ASUS FONEPAD NOTE FHD6
Un smartphone que puede
sorprenderos es lo nuevo de Asus. Un dispositivo de 6 pulgadas de pantallade
tipo Super IPS+, con resolución FullHD (1920×1080 píxeles) que resulta en 367
ppp. . Un procesador Intel Atom Z2560 y
2 GB de memoria RAM. El sistema operartivo es Android 4.2 Jelly Bean.
LG Z
Una imagen vale más que mil
palabras. El nuevo smartphone de LG, el LG Z,destaca por su flexibilidad y
nunca mejor dicho. La pantalla de este dispositivo va a ser cóncava, parecida a la la de una
pantalla OLED curva de TV. También será Full HD, la misma que incorpora el
también anunciado LG G2.
NOKIA LUMIA 1520
Nokia nos ha sorprendido
gratamente con el Lumia 1020, pero en breve sacará el Nokia Lumia 1520 que
destacará principalmente por sus cuatro micrófonos.
BONUS TRACK
GALAPAD SETTLER
El Galapad Settler da la
bienvenida a una nueva generación de dispositivos móviles más resistentes y
tecnológicos. La compañía china Galapad pretende invadir los mercados mundiales
con un smartphone fabricado con grafeno como material predominante; un elemento
más duro que el acero que dispone de numerosas ventajas frente a otros
componentes usados hoy en día. El grafeno es además un excelente conductor de
la electricidad, no sobrecalienta las baterías ni otros sistemas de alimentación
y, al ser utilizado en la pantalla del teléfono móvil, mejoraría la
sensibilidad táctil y el brillo de colores, ya que absorbe el 97,7% de la luz.
Entre sus características destaca
su pantalla de 5,4 pulgadas con resolución Full HD y procesador Qualcomm
Snapdragon 410 quad core de 64 bits. Incluye además una RAM de 2 GB,
conectividad 4G LTE y hasta 16 GB de almacenamiento interno. Movido por el
sistema operativo Android 4.4 KitKat, el Galapad Setter viene de serie con una
cámara trasera de 8 megapíxeles y una delantera de hasta 5 mpx. ¿Su precio?
Unos 360 euros, aunque nada se sabe aun de su lanzamiento al mercado
internacional.
NOKIA 1100
¿Recuerdas el fabuloso y
monocromático Nokia 1100 lanzado en 2003? Pues todo parece indicar que aquél
dispositivo “superventas” podría volver, obviamente, mucho más evolucionado y
adaptado a los tiempos que corren. Tras lanzar su primera tablet (N1), Nokia
parece sentir nostalgia por el pasado y para 2016 está preparando lo que la
empresa finlandesa llama internamente el 1100. Por supuesto, este es el nombre
interno para su nuevo proyecto de smartphone y aun no se conoce su nomenclatura
para los mercados mundiales. De momento, las informaciones indican que el
teléfono usará de primeras el sistema operativo Android 5.0 Lollipop y que
contará con un procesador MediaTek de cuatro núcleos.
IPHONE 6
El número uno de nuestro Top 10
tiene que ser como no, el próximo iPhone de Apple. Acaban de lanzar los iPhone
5S y los iPhone 5C, pero ya se habla del iPhone 6 del que se rumorean cosas
como una pantalla de 4,7 pulgadas, que será un 40% más delgado y con un ahorro
de energía de hasta un 90%.
La penúltima
maravilla tecnológica de Samsung se llama Galaxy 6 y viene acompañado de otro
modelo denominado S6 Edge que se caracteriza por sus dos pantallas curvas en
los laterales.
El Galaxy S6
salió a la venta allá por el mes de marzo de 2015 y ahora mismo sigue siendo
uno de los teléfonos móviles punteros que hay en el mercado. Destacan, entre
muchas otras cosas, su diseño y acabados de auténtico lujo en metal y aluminio,
sus cámara delantera de 5 Megapixels y trasera de 16.
Otra de sus
jugosas novedades seguro que agradan a los más jugones, y es que el Galaxy S6
también destaca por su pantalla QHD HD Super AMOLED y 5’1 pulgadas. Además,
viene equipado con su propio dispositivo VR para disfrutar de la realidad
virtual en cualquier lugar.
Sin duda, es
uno de los móviles del momento.
LG G4
LG es otra de
las marcas destacadas en los terminales de teléfono y sus dispositivos siempre
están pugnando por ser los mejores del mercado. El LG G4 no es una excepción,
ya que vuelve a estar entre los mejores teléfonos de gama alta que podemos
tener, a un precio de unos 500 euros.
El LG G4 monta
un procesador Snapdragon 808, tiene una pantalla de 5’5 pulgadas con una
resolución de 2560 x 1440 píxels. Su cámara delantera es de 8 MP, mientas que
la traser aes de 16 MP. Uno de los terminales más atractivos del momento, con
el que podrás hacer todo lo que te imagines (o casi).
HTC ONE M9
Otro de los
móviles más destacados del momento, aunque también es cierto que HTC lleva un
tiempo arriesgando muy poco y presentando un modelo muy similar año tras año.
Da la sensación de que van muy sobre seguro. A pesar de todo, es un muy buen
teléfono, con cámara delantera de 4 MP y trasera de 20,7 MP. Su pantalla es de
5 pulgadas, con resolución de 1920 x 1080 pixels. Incorpora un procesador
Qualcomn Snapdragon 810.
¿Su precio?
Pues alrededor de los 500 euros.
SONY
XPERIA Z3, Z3 COMPACT Y Z3+
La gama alta
del Xperia de Sony ha vuelto a la carga con tres nuevos modelos, el Xperia Z3,
el Z3 Compact y el Z3+.
Entre las
mayores virtudes de la gama Z3 de Xperia podemos citar la gran resistencia a
golpes, polvo o agua, una buena duración de la batería, la calidad del sonido
de los altavoces y una de las mejores cámaras traseras de todo el catálogo de
teléfonos móviles. Este móvil ya tiene un tiempo pero, a falta de que salga
algo mejor, sigue siendo un móvil muy actual.
NEXUS 5
El nuevo
teléfono de Google lleva por nombre Nexus 5. Un smartphone que por lo visto
cuenta ya con la nueva actualización del sistema Android, el nuevo Android 4.4
KitKat. Tiene pantalla de cinco pulgadas con resolución Full HD, con una cámara
de ocho megapíxeles.