Xataka

1

Loewe resucita con un nuevo dueño: volverá a vender televisores y amplía su negocio a electrodomésticos y smartphones

martes, 21 enero 2020 09:33:48

Loewe resucita con un nuevo dueño: volverá a vender televisores y amplía su negocio a electrodomésticos y smartphones

Tras 96 años de historia, el fabricante alemán de televisores premium suspendió su actividad el pasado mes de julio. Loewe no pudo hacer frente al coste de sus trabajadores y se puso en manos de los inversores para encontrar un comprador. Casi seis meses más tarde, la compañía que desarrolló una de las primeras teles a color y mostró el primer televisor plano anunciaba que tenía nuevo dueño.

Skytec Group, compañía de inversores especializada en electrónica y tecnología de consumo, adquirió la compañía, anunció que mantendría la fábrica en Bavaria y explicó que la marca Loewe volverá a estar disponible. No solo en televisión, sino en toda una nueva serie de productos.

Móviles, electrodomésticos y nuevos televisores Loewe en la IFA 2020

Loewe

No es la primera marca de electrónica que intentará resucitar Skytec, pues previamente reposicionaron en el mercado SHARP y Blaupunkt. Para Vladislav Khabliev, CEO de Skytec, ha explicado que Loewe ya ha contratado a sus 45 primeros empleados para reanudar la actividad y se dará comienzo a construir la nueva sede de la empresa en Kronach, desde la que se coordinará la expansión.

El nuevo proyecto mantendrá esa filosofía de "ingeniería alemana", una apuesta por el diseño cuidado y un foco por el mercado premium. La nueva dirección ya trabaja para restaurar las cadenas de suministro a partir de abril de manera que la mayor parte de la cartera de productos de Loewe vuelva a ser ofertada. Respecto al equipo comercial, se espera que a partir de febrero vuelva a estar en contacto con los distintos distribuidores.

Para esta nueva etapa, Loewe y sus nuevos propietarios volverán a contar con el apoyo de socios como LG Display para la fabricación de paneles OLED, así como de otros proveedores tecnológicos como Hisense, quien de hecho se postuló como uno de los posibles compradores.

La fecha establecida por Loewe para mostrar sus nuevos televisores es la IFA 2020, el evento de tecnología de Berlín donde la marca dará a conocer los nuevos televisores y productos de audio para el próximo año. Por esa misma fecha, Loewe también reactivará el servicio posventa con una nueva plataforma y la promesa de expandirse a más países europeos.

Loewe Television

Esta nueva Loewe quiere seguir postulándose como una marca premium, especializada en diseño y donde los materiales gozan de un gran protagonismo. Sin embargo, pese a haber sido una compañía histórica de televisión y sonido, a partir de ahora ampliará su negocio a otros sectores de tecnología de consumo.

Según ha anunciado la compañía, durante el próximo Mobile World Congress de Barcelona se lanzará una línea nueva de smartphones. Adicionalmente, Loewe también apostará por el lanzamiento de sus propios electrodomésticos.

Habrá que estar atentos para conocer cuál es el rumbo de esta nueva Loewe, una marca con muchísima experiencia y recorrido en el mundo de los televisores y cuyos nuevos dueños han decidido aprovechar su nombre y bagaje para probar suerte en otros sectores.

-
La noticia Loewe resucita con un nuevo dueño: volverá a vender televisores y amplía su negocio a electrodomésticos y smartphones fue publicada originalmente en Xataka por Enrique Pérez .

Ver Noticia Completa

2

El panóptico digital, el gran temor distópico que acecha tras la revolución de los datos, la inteligencia artificial y la "dataveillance"

martes, 21 enero 2020 09:00:39

El panóptico digital, el gran temor distópico que acecha tras la revolución de los datos, la inteligencia artificial y la

Cuando a finales del siglo XVIII las cárceles empezaron a llenarse de gente –consecuencia de la Guerra de independencia estadounidense, de la Revolución francesa y de sustituir como pena el castigo físico por la privación de libertad–, algunas cabezas pensantes buscaron la fórmula para acelerar la salida de los presos de las cárceles, a ser posible reinsertados. Una de las ideas más rompedoras fue del filósofo y economista Jeremy Bentham: el panóptico. Dicho rápidamente: se construye una cárcel de planta circular y se colocan las celdas en el perímetro, visibles sin dificultad desde el centro de la planta del edificio. En ese mismo punto central, se construye una torre en cuyo interior se colocan los guardias, que podrán vigilar 24/7 a los presos con la enorme ventaja de que estos –los presos– no sabrán cuándo son vigilados.

¿Resultado? Como el preso se sabe vigilado, se fuerza a comportarse con arreglo a la ley y, bien por la costumbre, bien porque se produce un intenso monólogo interior espoleado por la paranoia de saberse observado por el guardia invisible, el preso toma conciencia de su delito y entiende que no debe hacerlo. Reinsertado.

Naturalmente, el modelo de Bentham no triunfo, aunque sí se construyeron varias cárceles con esa idea. Lo que sí quedó fue el concepto de la persona observada que sabe que lo está pero que no puede saber dónde ni cuándo. Y este concepto, en su vertiente tecnológica, está de plena actualidad gracias a la NSA y a Cambridge Analytica.

¿Vivimos en un panóptico digital?

“No me cabe la menor duda de que vivimos dentro de un panóptico digital”, sentencia Miren Gutiérrez, directora del Programa de posgrado Análisis, Investigación y Comunicación de Datos y profesora de Comunicación de Deusto. Pero la también exdirectora de Greenpeace España va más allá y saca a colación el panspectrum, término acuñado por Sandra Braman, que parece la versión 5G del panóptico. Si el panóptico queda limitado por las leyes newtonianas (observado y observador deben coincidir en tiempo y espacio), el panspectrum etá por encima de ellas, pues el vigilante puede vigilar aunque el vigilado esté a miles de kilómetros y/o días de distancia. Ahí quedan el historial de búsqueda, las cookies, el timeline, los informes de movimientos bancarios... Big data. Recurrir a todo esto para vigilar recibe el nombre de dataveillance.

¿Y quién ejerce esta vigilancia? Google, Facebook, Amazon, Microsoft, Apple… “La gente es consciente de la vigilancia de su privacidad con objetivos comerciales, y asume que por estar cómoda y acceder a ciertos contenidos en la web, le van a mandar anuncios. Es el precio que hay que pagar”, concluye Gutiérrez.

“No hay una autoridad central que controle todo el cotarro y se encargue de reprimir. Ahora no hablamos de reprimir, sino de comprimir.

Pero no sólo vigilan las marcas. Para Ulises Cortés, profesor e investigador sobre inteligencia artificial en la Universidad Politécnica de Cataluña y del Barcelona Supercomputing Center, el gran cambio entre el panóptico sin apellido y el digital es que ya no queda claro del todo quién es el vigilante. “No hay una autoridad central que controle todo el cotarro y se encargue de reprimir. Ahora no hablamos de reprimir, sino de comprimir. Hemos cambiado la noción de la desaparición física de 1984 por el linchamiento digital”. Los ciudadanos se vigilan, y censuran, los unos a los otros.

Y, si faltaba alguien entre los vigilantes para terminar de redondear la sensación de que aquí vigila todo el mundo, llegan los gobiernos. “La vigilancia y la inteligencia siempre han sido una parte importante para los gobiernos, para bien y para mal”, explica Miren Gutiérrez, “y entiendo que se necesite información sobre las necesidades de la ciudadanía para gobernar, pero aquí hablamos de algo muy diferente: acumular datos por si acaso dejas de pagar tus impuestos implica que todo el mundo está bajo sospecha por principio. El problema no es que los gobiernos vigilen, pues se supone que lo hacen para gestionar el bien común, sino la vigilancia corporativa-gubernamental, el matrimonio entre las grandes plataformas y los gobiernos”.

La profesora cita dos casos que considera clarificadores: el trasvase de datos de millones de usuarios de AT&T y Verizon al gobierno estadounidense entre 2003 y 2013, y, más recientemente, el acceso de Cambridge Analytica a los datos de 50 millones de usuarios de Facebook (con el consentimiento de la empresa de Zuckerberg) para enviarles información política. “Y no hablamos de una empresa recién llegada. Cambridge Analytica ya tenía experiencia en esto y sabía que las personas con opiniones más extremas son las más vulnerables a este tipo de campañas.”

Facebook_Zuckerberg_F8 Mark Zuckerberg da ideas durante el F8, celebrado en mayo de 2019. Anthony Quintano

¿Cómo se ha llegado hasta aquí?

Para la exdirectora de Greenpeace España, el panóptico y sus consecuencias son el resultado de una “especie de normalización”. “Nos hemos ido desnudando, haciendo estriptis en redes sociales, cediendo y regalando nuestra intimidad a las plataformas. Todo esto ha hecho que haya una sociedad mucho más tolerante con esta intromisión en nuestras vidas. Y cuando las personas sensibilizadas ante estas cosas se manifiestan se encuentran con cada vez más intrusiones en sus derechos. Y mucha gente dice entonces: ‘¿Qué problema tienes si tú no has hecho nada?’ ¿Qué forma de pensar es esa? Como no he hecho nada, que pongan una cámara en mi casa”.

“Nos hemos ido desnudando, haciendo estriptis en redes sociales, cediendo y regalando nuestra intimidad a las plataformas. Todo esto ha hecho que haya una sociedad mucho más tolerante con esta intromisión en nuestras vidas"

El profesor Ulises Cortés también destaca la misma idea: “Cuando el ciudadano piensa ‘Como mis datos no valen nada y no tengo nada que esconder, no me preocupa que me vigilen’, es entonces cuando se produce la distopía”. “Nos hemos dejado circundar por una tecnología que al principio era inocua, pero que luego se ha demostrado que no era así. ¿A qué responde que las cámaras del iPhone sean cada vez mejores si no es a mejorar el reconocimiento facial y la localización?”, se pregunta Cortés, que prevé que la escalada tecnológica por la vigilancia irá a más.

Ramón López de Mántaras, profesor de investigación del Consejo Superior de Investigaciones Científicas (CSIC) y Fundador y exdirector del Instituto de Investigación en Inteligencia Artificial del CSIC, se muestra muy cauteloso con el siempre inminente Internet de las Cosas. “Tengo serias dudas de que el IoT sea una buena idea. Que el coche esté conectado será imprescindible para que sea totalmente autónomo; en caso de accidente puede ponerse en contacto con el servicio de emergencia y salvarte la vida. Pero hay casos completamente irrelevantes. ¿Para qué quiero que mi frigorífico esté conectado a Internet? ¿Qué valor añadido tiene que me mande un mensaje mientras trabajo diciendo que se ha terminado la leche? Si la gente se compra alegremente y sin estar informada todos estos gadgets, el panóptico digital se nos va a quedar corto.”

La regulación podría no ser suficiente

“Entiendo que la regulación excesiva puede sofocar la innovación y las libertades, pero la falta de regulación genera monopolios y abusos de todo tipo, porque las empresas van a llegar hasta donde les dejes”, explica Gutiérrez, que advierte del riesgo de que las administraciones empiecen a utilizar algoritmos creados por empresas que no tienen necesariamente los mismos valores que los gobiernos que los encargaron.

“No entiendo la dependencia de los gobiernos de estas plataformas que usan software propietario y comercial. Muchas veces te dicen que no pueden hacer nada contra Google. ¿Excuse me? Primero, cambia los sistemas, pasa de Google y usa sistemas abiertos. Y segundo, haz un manual para proveedores de servicios que incorporen los valores que quieres promover. No vas a cambiar el mundo, pero sí se puede generar un efecto dominó, como cuando los ayuntamientos compran coches eléctricos”, subraya Gutiérrez.

El Reglamento General de Protección de Datos de la UE, en funcionamiento desde mediados de 2018, es hasta el momento la primera barrera de protección de los ciudadanos comunitarios contra el uso de los datos personales por parte de las plataformas digitales. Sobre la regulación del uso de algoritmos privados para tratar temas públicos no hay nada sobre la mesa todavía, aunque sí se está conformando un plan estratégico acerca de la IA en estos momentos.

Para la profesora Gutiérrez no es suficiente con las regulaciones en desarrollo y reclama un mayor compromiso por parte de la ciudadanía más allá de configurar dispositivos para limitar el acceso a su información personal. “No es sólo la privacidad, es una cuestión mucho más profunda que tiene que ver con las libertades y con la democracia”. “¿Queremos una sociedad fácil en la que Alexa decida todo por nosotros a cambio de ser espiados en nuestras acciones y sentimiento, o queremos una sociedad más libre a precio de cierta incomodidad y de ser más solidarios con los derechos de todos?”.

Imágenes |Presidio Modelo, Cuba|Mark Zuckerberg en el F8|

-
La noticia El panóptico digital, el gran temor distópico que acecha tras la revolución de los datos, la inteligencia artificial y la "dataveillance" fue publicada originalmente en Xataka por Francisco Rouco .

Ver Noticia Completa

3

Cámaras lentas llevadas casi al absurdo: esta captura un billón de imágenes por segundo y retrata ondas y objetos transparentes

martes, 21 enero 2020 08:30:37

Cámaras lentas llevadas casi al absurdo: esta captura un billón de imágenes por segundo y retrata ondas y objetos transparentes

En octubre de 2018 los investigadores de la universidad Caltech lograban un hito singular: una cámara capaz de capturar 10.000.000.000.000 de fotogramas por segundo. Esa cámara hacía posible capturar incluso la luz propagándose a cámara lenta.

Ahora Lihong Wang, el mismo que desarrolló esa cámara, ha creado una nueva variante algo menos lenta -solo un billón de imágenes por segundo, fatal- pero que usa una técnica centenaria para lograr capturar objetos transparentes, ondas e incluso las señales que viajan a través de las neuronas.

Capturando la comunicación entre neuronas como opción de futuro

Ríete tú de los 7.680 fotogramas por segundo que es capaz de capturar el Huawei Mate 30 Pro. La cámara súper lenta desarrollada por Wang es una evolución de su anterior modelo que Wang ha bautizado ahora como phase-sensitive Compressed Ultrafast Photography (pCUP).

Camara2

Esta cámara combina la tecnología de la anterior con la microscopía de contraste de fase, que fue creada en 1932 por el físico neerlandés Frits Zernike -ganador del Nobel de Física en 1953 por ese descubrimiento junto al del método de contraste de fases-. Esta técnica fue diseñada para lograr fotografiar objetos prácticamente transparentes como células, compuestas básicamente de agua.

Al contrario de lo que ocurre con otras tecnologías de captura ultra-rápida de imágenes, este sistema toma una imagen pero luego captura todo el movimiento que tiene lugar durante el tiempo que la toma tarda en completarse.

Wang y su equipo demostraron las posibilidades de pCUP tomando una imagen de cómo se difunde una onda de choque a través del agua y de un pulso láser que viaja a través de un trozo de material cristalino.

Para este científico la técnica, aún en desarrollo, podría ser aplicada en disciplinas como la física, la biología o la química. "A medida que las señales viajan a través de las neuronas, hay una dilatación diminuta de las fibras nerviosas que esperamos ver", destacaba Wang. "Si tenemos una red de neuronas, tal vez podamos ver su comunicación en tiempo real".

El estudio de Lihong Wang y sus colegas se ha publicado en la revista científica Science Advances y allí podremos encontrar algunos de los vídeos iniciales capturados con una tecnología que podría plantear una ayuda notable a diversos proyectos de investigación.

Vía | Phys.org

-
La noticia Cámaras lentas llevadas casi al absurdo: esta captura un billón de imágenes por segundo y retrata ondas y objetos transparentes fue publicada originalmente en Xataka por Javier Pastor .

Ver Noticia Completa

4

La nueva POCO parece confirmar lo que muchos esperaban: la llegada al fin del Pocophone F2

martes, 21 enero 2020 08:00:04

La nueva POCO parece confirmar lo que muchos esperaban: la llegada al fin del Pocophone F2

El éxito arrollador del Pocophone F1 hizo que durante buena parte de 2019 muchos nos preguntáramos qué pasaba con su teórico sucesor.

No lo hubo en 2019, pero parece que sí tendremos Pocophone F2 en 2020. Así lo revelan tanto el documento de la marca registrada descubierta hace poco con el nombre "POCO F2", así como una serie de tuits oficiales de POCO India.

Sabemos que está en marcha, pero poco más

El documento que apareció hace unos días en los organismos de gestión de marcas registradas en China revela efectivamente el nombre de ese dispositivo.

También aparece el nombre de Xiaomi solicitando esa marca registrada, pero más allá de eso los datos son nulos: no hay especificaciones, imágenes o pistas que puedan ayudarnos a saber en qué fecha y con qué precio se comercializará.

Aún así y como apuntan en AndroidPolice la llegada del Pocophone F2 (o POCO F2, si hacemos caso a esa marca registrada) podría producirse relativamente pronto: su predecesor apareció poco después de que se realizara esa solicitud de marca registrada.

Los propios responsables de POCO en India han querido confirmar con un guiño a las series televisivas que "¡La segunda temporada está en marcha ahora!" y que nos preparemos para el impacto de lo que nos preparan sin dar muchos más datos.

El mensaje confirma esa independencia de POCO frente a Xiaomi, y en una carta abierta publicada recientemente confirman que aunque "el panorama ha cambiado inmensamente" en estos últimos meses desde el lanzamiento del Pocophone F1 (o POCO F1, como lo llaman ellos), "estamos preparados". Es más: terminan esa carta indicando que mañana habrá más novedades, así que estaremos atentos.

Vía | AndroidPolice

-
La noticia La nueva POCO parece confirmar lo que muchos esperaban: la llegada al fin del Pocophone F2 fue publicada originalmente en Xataka por Javier Pastor .

Ver Noticia Completa

5

El Open Source ya no es tan "Open": las licencias copyleft ceden terreno a aquellas que se acercan un poco al modelo privativo

martes, 21 enero 2020 07:00:39

El Open Source ya no es tan

El éxito del software Open Source es patente: puede que Linux no haya triunfado en el escritorio, pero el uso de este tipo de software es enorme en todo tipo de ámbitos, desde nuestros móviles —Android se deriva de Linux— hasta los servicios web que usamos a diario.

Sin embargo algo está cambiando en la forma que los desarrolladores aprovechan esta filosofía. Un estudio de la consultora WhiteSource revela que entre la multitud de licencias Open Source existentes hay un uso cada vez más acentuado de aquellas más permisivas con un modelo algo más comercial y privativo. Las licencias más abiertas y "puras", las calificadas como "copyleft", como GPL en sus distintas versiones, pierden interés entre los desarrolladores y las empresas.

Un maremágnum de licencias, ¿cuál es cuál y para qué sirve cada una?

El número de licencias Open Source y (no Open Source) existentes es enorme. Tanto que para muchos desarrolladores acaba siendo difícil elegir entre unas y otras, lo que ha propiciado la aparición de servicios como tl;drLegal, que hace un resumen de cada licencia de forma concisa y clara. Otros como Choose A License tratan también de recomendar la licencia más adecuada a los desarrolladores según sus necesidades.

Licencias

Ese maremágnum -hay más de 80 licencias aprobadas por la Open Source Initiative, por ejemplo- ha acabado haciendo que al menos en el ámbito del software de código abierto aparezcan dos grandes grupos de licencias: las copyleft y las permisivas. Las diferencias entre unas y otras son las siguientes:

  • Licencias copyleft: las licencias como GPL, LGPL o incluso AGPL (más copyleft que la propia GPL) son consideradas como licencias copyleft por su apertura total. El objetivo de esta licencia es evitar por todos los medios que cualquiera que use el código realice cambios y luego no los comparta. Si un programa Open Source usa GPL, por ejemplo, no puedo hacer cambios en él, venderlo como un archivo binario ejecutable y venderlo como si fuera exclusivamente mío: debo compartir los cambios y mantener la licencia porque se trata de un "trabajo derivativo", como explican en la Free Software Foundation. Puedo hacer los cambios, compilarlo, obtener un binario y venderlo, pero debo seguir ofreciendo el código modificado por mucho que me haya costado hacer ese trabajo: la licencia GPL está pensada para que el software se retroalimente de esta forma indefinidamente.
  • Licencias permisivas: al contrario de lo que ocurre con las anteriores, licencias como BSD, Apache o MIT son menos "exigentes" en su apertura, ya que permiten a quienes las utilizan hacer básicamente lo que quieran con el software que utilizan, sin obligarles por ejemplo a compartir revisiones del código que hagan por su cuenta. La integración de estos desarrollos en software propietario o privativo acaba siendo mucho más factible.

Los ejemplos de proyectos que utilizan unas y otras dejan un poco más claras esas diferencias: el kernel Linux es GPL, MySQL/MariaDB es GPL, GIMP es GPL y todas las herramientas GNU son GPL. La cosa es distinta para algunas de las grandes herramientas que usamos en la web: el servidor web Nginx usa BSD, Ruby on Rails usa MIT, Django usa BSD, y Twitter Bootstrap es Apache, por ejemplo.

Como explicaba Cory Benfield, un desarrollador software especializado en este ámbito, hay una división cultural en este tipo de uso de licencias. "Los desarrolladores web me parecen parte de una cultura empresarial que vive y respira alrededor de la idea de crear 'startups'. Todo esto está muy bien, pero significa que estos desarrolladores quieren ser capaces de envolver sus herramientas en sus pilas de software propietario si es posible", destacaba.

Cada vez menos GPL, cada vez más MIT

Quienes eligen las licencias copyleft lo hacen para preservar ese espíritu abierto y para garantizar por ejemplo que las empresas comerciales no puedan usar ese código sin devolverle a la comunidad el trabajo que puedan hacer para mejorar el proyecto también en su propio beneficio.

Licenc

Sin embargo cada vez más proyectos hacen uso de licencias permisivas. El estudio de WhiteSource que mencionan en The Register muestra cómo en 2012 el 59% de los proyectos usaban licencias copyleft. En 2019 ese porcentaje ha bajado al 33%.

El crecimiento de proyectos con licencias permisivas es algo que ya observaron los responsables de GitHub, y los expertos notan que la antigua división entre las comunidades Open Source y las empresas comerciales ya no existe a la hora de concebir la adopción de estas licencias.

Para David Habusha, directivo de WhiteSource, uno de los problemas es que las grandes de la tecnología están detrás de alguno de los grandes proyectos cone stas licencias. Facebook, Google o Microsoft cuentan con un 60%-80% de su pila software consistente en código Open Source. La batalla ha cambiado y ahora es más del "pequeño" contra el "grande".

Así, Habusha explica que las startups usan licencias Open Source que les permitan defenderse contra la competencia, incluso si eso significa violar la libertad y principios originales de los proyectos Open Source y de las licencias copyleft que nacieron con ellas.

Para otros expertos como Paul Berg, consultor que trabajó con Amazon y Microsoft en este ámbito, aunque las licencias permisivas son cada vez más populares en muchos ámbitos, las licencias copyleft siguen teniendo mucha relevancia: "en el área de la computación en nube estamos viendo un resurgimiento fuerte del interés en licencias copyleft como la AGPL, porque tiene mayores garantías de que los consumidores de ese software seguirán siendo miembros de la comunidad en lugar de simplemente extender y volver a empaquetar el software para su propio beneficio".

Aún así parece claro que algo está cambiando en muchos proyectos que una vez más se califican como Open Source pero que cada vez lo son menos. Un vistazo a las licencias con las que se publican estos proyectos nos puede dar una buena idea de la filosofía real de esos proyectos.

-
La noticia El Open Source ya no es tan "Open": las licencias copyleft ceden terreno a aquellas que se acercan un poco al modelo privativo fue publicada originalmente en Xataka por Javier Pastor .

Ver Noticia Completa

6

"MicroLED trae lo mejor de las dos grandes tecnologías que hay ahora mismo", entrevista a Nacho Monge (Samsung)

martes, 21 enero 2020 06:16:35

Durante los últimos años que hemos podido entrevistar a Nacho Monge, TV & AV Marketing Manager de Samsung España, nos ha hablado de las bondades de los televisores QLED de Samsung, anticipándonos también la llegada de la resolución 8K cuando muchos pensábamos que todavía faltaban años. Pero ahora el discurso de Samsung en televisores empieza a virar hacia una nueva tecnología: el microLED.

Aprovechando nuestra visita al CES 2020, donde Samsung ha anunciado sus nuevos televisores QLED 8K sin marcos, paneles microLED y hasta un televisor en vertical, hemos vuelto a realizar una entrevista para conocer los últimos detalles sobre las tecnologías que prepara Samsung para los próximos años, el estado del 8K y su rivalidad con el resto de competidores.

Qué tecnología llega con los nuevos televisores Samsung para 2020

Entre las tendencias en televisores que hemos visto este año está la llegada del HDMI 2.1, nuevos modos de cine como Filmmaker y claramente la consolidación del 8K. Sin embargo, pese a ganar varios apoyos como los de LG o Sony, el 8K sigue teniendo un largo recorrido por delante. No podíamos iniciar esta entrevista sin preguntarle directamente.

Siguen habiendo muchos escépticos del 8K. ¿Qué le dirías a los que hasta ahora no están convencidos?

"A partir de 2020, vamos a tener móviles grabando en 8K continuamente"

"Pues les diría varias cosas. Primero, que el 8K es una carrera de largo recorrido. Empezamos a hacer los primeros tests hace bastante tiempo, en 2015. Ahora mismo en 2020, ya tenemos un estándar de códecs, ya tenemos un estándar de conectividad. Y a partir de 2020 vamos a tener cámaras que graban 8K en nuestra mano, es decir, vamos a tener móviles grabando en 8K continuamente. Por lo cual el ecosistema se va a enriquecer y los contenidos van a mejorar notablemente.

En segundo lugar, Samsung está trabajando con los grandes generadores de contenido para traer contenido en 8K. ¿Cómo lo vamos a hacer? Por un lado decir que este año los J.J.O.O se van a grabar en 8K en Tokyo. Eso nos generará una gran cantidad de contenidos 8K y un gran ruido sobre esta resolución. Por otro lado, es conocido nuestro partnership con Youtube y con Amazon. Con los primeros hemos desarrollado un códec nuevo, una tecnología nueva. Se llama AV1 y nos permite ser capaces de generar el streaming 8K de manera más fácil, más ágil y más sencilla. Y muy pronto lo tendremos igual con Amazon.

En tercer lugar, no todo es 8K nativo. Sino cómo hacemos el escalado de cualquier tipo de contenido a calidad 8K. Para eso es fundamental el procesador que tiene Samsung, nuestro procesador Quantum, donde a través de la inteligencia artificial somos capaces de hacer un escalado que es un 98% igual que si fuese un 8K nativo".

"A través de la inteligencia artificial somos capaces de hacer un escalado que es un 98% igual que si fuese un 8K nativo".
8k ultra hd

La llegada del 8K está ganando tracción, pero sigue muy presente la diferencia de criterios que aplican las marcas respecto a esta nueva resolución. Mientras hay fabricantes que utilizan la definición de la Consumer Technology Association (CTA) basada en la 'Modulación de Contraste', otras marcas como Samsung han decidido apostar por una nueva asociación.

Hablamos mucho de 8K, pero todavía no hay un estándar bien definido. Algunas marcas eligen la modulación de contraste como parámetro esencial para definir qué es y qué no es 8K real, pero vosotros estáis en otro camino. ¿Cuál es la postura de Samsung?

"Samsung lo que cree es en la Asociación 8K, que hemos creado junto con otros fabricantes y desarrolladores de contenido. En la Asociación 8K cumplimos ampliamente con los requisitos que se ha acordado entre los grandes 'players'. El estándar por el cual se han guiado durante 2019 es un estándar muy antiguo sin criterios realmente fijos en cuanto a contenidos 8K, por eso Samsung desde un primer momento quiso juntar a los principales players para crear una asociación 8K".

"El estándar por el cual se han guiado durante 2019 es un estándar muy antiguo, sin criterios realmente fijos en cuanto a contenidos 8K"

Centrándonos en esta mejora del contraste. Preguntamos a Nacho Monge por los avances en el catálogo de estos nuevos televisores 8K para 2020. "En nuestras teles, la calidad de imagen que somos capaces de reproducir en 8K mejora notablemente no solo por el contraste sino por otras muchas variables del televisor como puede ser el brillo o la capacidad de respuesta del producto".

Nacho Monge

Además de la propia tecnología del televisor, uno de los aspectos que más afecta al color es el HDR. Tanto el año pasado como este, los televisores Samsung procesan contenidos HDR10+, pero no Dolby Vision. Y actualmente la oferta de películas con este último formato de HDR es muy superior. ¿Se incorporará el soporte completo a Dolby Vision?

"Samsung apoya plataformas abiertas, y nuestra plataforma es HDR 10+. Digamos que somos más estrictos o que no somos tan favorables al apoyar plataformas más cerradas, como podría ser el caso de Dolby Vision. Creemos más en plataformas abiertas que no tienen ningún coste tanto para el creador del hardware como para el creador del contenido y finalmente para el consumidor".

"Creemos más en plataformas abiertas que no tienen ningún coste tanto para el creador del hardware como el creador del contenido"

Los televisores de gama alta lanzados por Samsung en 2019 implementan algunas prestaciones de HDMI 2.1, como ALLM y VRR. Sobre esta nueva conexión preguntamos al responsable de Samsung. "Todos los televisores Samsung QLED 8K tendrán HDMI 2.1", nos afirma. Aunque no está tan claro en el caso de los modelos 4K, donde dejan la puerta abierta a que algún modelo concreto sí lo incorpore. "Estamos revisándolo actualmente".

¿Ha mejorado el Full Array en la gama 2020? Además del apartado estético; ¿hay alguna mejora en la retroiluminación de vuestros modelos para 2020?

"Lo que hacemos es que el Full Array tenemos diferentes niveles. Tendremos un nivel superior o muy premium en los televisores 8K y también tendremos un Full Array muy potente en los QLED 4K".

De las nuevas QLED 8K, lo más llamativo a primera vista es sin duda su diseño 'Zero Bezels'. En el modelo Q950TS, vuestro nuevo «buque insignia» con resolución 8K, los marcos se han eliminado casi completamente. ¿Cuál ha sido la dificultad para reducirlos?

"No podemos entrar en todos los detalles. Sí decir que realmente es complicado llevar la pantalla a un 99%. De hecho es por eso que no lo hayamos conseguido hasta ahora. Y de hecho no es posible incluso hacerlo en los móviles al nivel que ha llegado el televisor".

¿Qué ha cambiado este año para que sí hayáis logrado?

"La inversión en I+D".

¿Llevaréis este diseño a los televisores de gama alta con resolución 4K UHD?

"Probablemente. Trabajaremos para que en años venideros podamos traerlo".

¿"Próximos años" es cercano o lejano?

"Como algo más cercano. Año tras año veremos como gamas más accesibles introducirán este tipo de diseño y tecnología".

Qled 8k

Repasando las tecnologías de Samsung, una de las herramientas que diferencia al fabricante surcoreano del resto es su forma de ofrecer las conexiones. Nos referimos al One Connect, por el que también le preguntamos. "La conectividad sigue siendo la misma, aunque introducimos el HDMI 2.1. El One Connect como tal es una herramienta muy apreciada por el consumidor y la ponemos en los productos más premium de Samsung. La mayoría de gama QLED se puede conectar con un único cable que va a la pantalla".

Entre las mejoras a nivel de procesamiento y adaptación, una de las novedades es la imagen adaptativa que cambia en función de dónde veamos el televisor. ¿Cómo detecta la tele qué tipo de personalización debe realizar?

"Nuestra imagen es capaz de adaptarse a la luminosidad de la habitación y adapta también el sonido en función de cómo sea la habitación. Si vamos en cuanto a la luminosidad, el TV incorpora una serie de sensores y en función de la luz mete más o menos brillo a la pantalla para optimizar la calidad de imagen. Si hablamos de sonido, cuando enciendes el televisor te pide que dejes el mando donde te sientas normalmente y el mando manda una señal por toda la habitación para medirla y así adaptarse".

¿Este proceso se realiza en el dispositivo o se conecta a la nube?

"En el dispositivo".

Se hace mucho hincapié en la inteligencia artificial, pero la barrera no queda clara. ¿No son solo algoritmos? ¿Por qué se le llama IA cuando simplemente son unas cuantas fórmulas?

"¿Cómo funciona esto? Todos los televisores, los tradicionales sin IA, lo que hacían era traer una serie de algoritmos para traer ese escalado de imagen. Eran una serie de fórmulas limitadas. ¿Cómo lo hace Samsung para traducirlo con la IA? El televisor viene con una serie de algoritmos y nuestros servidores externos van aprendiendo de lo que está viendo el consumidor, añadiendo nuevas fórmulas y cada cierto tiempo cuando encontramos mejoras en esas fórmulas, o fórmulas nuevas, lo enviamos a todas las televisiones a nivel mundial. De hecho, si tuvieses un televisor con IA pero no ves tanto la tele como yo, porque tengo hijos, nos mejoraría a los dos lo mismo. Samsung la lanza a partir de software para todos".

Nuestros servidores externos van aprendiendo de lo que está viendo el consumidor, añadiendo nuevas fórmulas y cada cierto tiempo lo enviamos a todas las televisiones a nivel mundial".

Una de las promesas de Samsung durante la keynote de su CEO, HS Kim, en el CES fue sobre privacidad. "Una IA en la que podamos confiar", decía el presidente de la compañía para a continuación hacer la promesa de que Samsung no compartiría ninguna información con terceros salvo que tuviera nuestro consentimiento expreso. ¿Es posible realmente asegurar que no habrá escándalos?, preguntamos. "Yo ahí me tengo que remitir a lo que se dijo en la keynote", nos explica sin poder darnos más detalles. "Lo que sí podemos decir es que Samsung está muy comprometido con la seguridad de nuestros consumidores", afirma antes de recordar las ventajas de Knox, su plataforma de seguridad en móviles y ampliable a todos los dispositivos.

MicroLED, The Sero y otras tecnologías de futuro

Microled

QLED sigue siendo la tecnología sobre la que gira el catálogo de Samsung, pero para los próximos años la marca prepara importantes cambios en su segmento más premium. Y microLED tiene todos los números de ser la tecnología por la que Samsung apostará próximamente. El año pasado, también en Las Vegas, Samsung mostró su tecnología microLED en 75 y 292 pulgadas. Este año, la marca da un paso más y nos anticipa hasta seis tamaños de pulgada diferentes.

¿Cómo explicarías a una persona en qué consiste la tecnología microLED de manera sencilla?

"Para la tecnología microLED lo que explico es que trae lo mejor de las dos grandes tecnologías que hay ahora mismo en el mercado. Por un lado es una tecnología que por sí misma es capaz de generar la luz ('self emitting') y por otro no tiene limitación en cuanto a los niveles de brillo. No estamos limitados ni en cuanto a resolución ni en tamaño. Somos capaces de apagar y encender cada píxel de manera independiente, igual que en OLED; pero es inorgánico, con lo cual no tiene problemas de quemado de panel. La tecnología actual de microLED nos permite que no estemos supeditados a un tamaño específico y resolución, podremos ampliar esto como veamos".

"MicroLED trae lo mejor de las dos grandes tecnologías que hay ahora mismo en el mercado".

¿Qué es lo que permite este diseño modular?

"La propia tecnología que viene con el microLED. Cuando lo vamos añadiendo, el software del televisor empieza a ver cuántos paneles hay y en función de eso va haciendo la imagen".

Suena muy curioso y de hecho hemos visto una pequeña demostración. Pero, ¿eso se implementará en un televisor a nivel comercial? Quiero decir, ¿será posible por ejemplo pagar 1.000 euros para ampliar la pulgada?

"La realidad es que microLED sigue en un estado de desarrollo, pero veremos televisores microLED comercialmente más pronto de lo que esperamos".

"Veremos televisores microLED comercialmente más pronto de lo que esperamos".

¿Entonces apuntan para este año?

"No podemos decir. Aunque ya se han anunciado distintos tamaños de pantalla. Lanzamos 292" con The Wall hace dos años y hemos seguido bajando".

Respecto al microLED, nuestro compañero Juan Carlos tenía una pregunta técnica que trasladamos al equipo de Samsung. Y es que desde un punto de vista técnico, los televisores micro-LED son atractivos porque nos ofrecen una calidad de imagen equiparable a la de los dispositivos OLED, pero no adolecen de los problemas de retención y degradado de estos últimos. La duda en cuestión era: ¿la proximidad de los diodos no provocará problemas de sobrecalentamiento a medio plazo? "No lo sé", confiesa Nacho Monge.

Te lo vuelvo a preguntar de otra manera. Se habla mucho de la retención de imagen en el OLED. ¿Cuál es la durabilidad en el caso del microLED?

"Tienen la misma vida útil que lo que tendría un televisor QLED, que es entorno a 25 años".

MicroLED no es la única tecnología de futuro para Samsung. En octubre del año pasado vimos la noticia de que Samsung invertirá más de 10.000M€ en fabricar paneles QD-OLED. ¿Cómo encaja con la apuesta por el microLED?

"Samsung, como líder de fabricación de paneles, investiga las mejores tecnologías que vayan a poder sobrepasar la tecnología premium actual, que son QLED y OLED. Trabajamos e invertimos en este tipo de tecnologías como la que has mencionado".

Si con QLED y OLED teníamos dos nombres que en numerosas ocasiones pueden confundirse, con la llegada del microLED o el QD-OLED tendremos más tecnologías por aprender. Y no son las únicas. Marcas como TCL o LG apuestan a su vez por el miniLED. No así Samsung, quien nos confirma que "en ningún caso nuestra línea de desarrollo es con miniLED".

Y es que estas tecnologías no son exclusivas de cada marca. De hecho, hemos visto otras marcas con paneles QLED. "Al final, como líder de la industria de televisión, lo que hacemos es sacar las mejores tecnologías y hay otros fabricantes que o bien compran nuestra tecnología o la imitan de alguna que otra manera. Cuando hay gente que nos sigue es una decisión acertada haber apostado por Quantum LED".

The Sero

The Sero y esa curiosa apuesta por el contenido vertical. ¿Llegarán a España?

"Sí. Entorno marzo y abril.

¿Qué tipo de consumidor puede estar interesado en un televisor así?

"Hay muchos tipos de consumidores. Tenemos identificado un consumidor, entorno a 30 y pocos años, los millennial, con un gran consumo de contenidos digitales de vídeos, a través de internet o del móvil. Pero que tiene cierta limitaciones porque el móvil no es el mejor aparato donde ver contenido. Para eso está Sero, para vídeos verticales pero que a su vez se puede utilizar en posición normal".

Los televisores tipo The Sero tenderán a rotar para dar al consumidor esa versatilidad en los dos formatos".

¿Tendrá también un "precio millennial"?

"Tendrá un precio... que estará acorde con el producto. The Sero se engloba dentro de una nueva gama, dentro de la parte lifestyle TV".

Y para el futuro, ¿crees que al final veremos televisores verticales que no rotan?

"Bueno, el producto totalmente vertical ya lo tenemos. Está en la parte 'profesional display'. Yo en el hogar, creo que este tipo de televisores Sero tenderán a rotar para dar al consumidor esa faceta, esa versatilidad en los dos formatos".

Hay otras dos gamas que Samsung engloba dentro de la serie 'lifestyle TV' y que este 2020 se han renovado. Se trata de las nuevas The Frame, con marcos y fondos que se confunden con un cuadro y The Serif, con diseños vanguardistas.

¿Cuál ha sido la recepción de The Frame en España?

"Con The Frame empezamos hace tres años, con una distribución reducida y poco a poco el producto ha mejorado. Tenemos The Frame junto con QLED, lo que hace que ese producto sea realmente atractivo, con unas ventas que año tras año se van duplicando".

Y en el caso de The Serif, otra gama orientada a un público muy concreto. ¿Qué feedback habéis recibido?

"The Serif la introducimos hace dos años, la discontinuamos y la hemos vuelto a introducir porque nos la pide el consumidor. Serif igual que Sero y Frame se engloba en lifestyle, cada una tiene un consumidor. Sero es millennial, Frame para aquellos que les gusta el arte y tele algo más global, Serif para los amantes del interiorismo. Gente que nos lo ha ido solicitando tendrán otra vez la posibilidad de tenerlas".

Estos días de la feria hemos visto televisores con diseños de lo más extravagantes. ¿Tendréis también televisores transparentes?

"Tenemos un desarrollo en profesional Display con tecnología LED, pero no en comercial".

Cómo afronta Samsung este importante año de J.J.O.O y Eurocopa

Qled

Si 2018 fue un año importante por el Mundial de fútbol, este 2020 también es otro año marcado en la agenda de los fabricantes de televisión. En Europa, los fabricantes esperan que las ventas crezcan gracias a la Eurocopa, pero será casi en la antípodas españolas donde se realizará una batalla todavía mayor. Los Juegos Olímpicos de Tokyo 2020 será posiblemente el acontecimiento que suponga el despegue de la resolución 8K. Un gran evento deportivo del que se espera que ayude a la expansión de los televisores de última generación.

"Los fabricantes siempre intentamos traer la última tecnología cuanto antes, pero siempre va a venir luego algo mejor. Tendremos todo el lineup introducido nuevo, entre marzo o abril estará todo", nos explica Nacho Monge.

Háblame del mercado de televisión en España. ¿Cuál es el tamaño más popular?

"El tamaño más popular que más se vende es 55 pulgadas. Con un gran crecimiento en 65 y 75 pulgadas.

¿En qué tamaños estará el foco para este año?

"Lo que vemos que se va a notar con la Eurocopa es en el segmento de 75" y más, que prevemos que crezca. Hasta el doble de lo que se ha vendido durante 2019".

"Prevemos que el segmento de 75" o más pulgadas crezca y signifique el doble de lo que se ha vendido durante 2019".

A nivel de mercado en España, la primera posición está muy disputada entre la primera y segunda marca. ¿Cuáles son los últimos datos de cuota que manejáis?

"La primera posición está ocupada por Samsung. Básicamente es líder en el mercado español en 2019, por onceavo año consecutivo. Líder a nivel total".

Ante esta pregunta, desde Samsung nos dejan tres datos para ejemplificar su posición de fuerza dentro del mercado español. A nivel de tamaño: "7 de cada 10 televisores que se venden en España de 75 pulgadas son de Samsung". En cuanto a resolución: "UltraHD 4K, sacamos más de diez puntos al segundo jugador, que es otra marca coreana". Y finalmente, a nivel de tecnología: "Samsung vende más QLED que todos los OLED juntos" (refiriéndose a LG, Sony, Panasonic y demás).

The Wall
"Samsung vende más televisores QLED que todos los OLED juntos del resto de marcas."

¿Qué objetivos tenéis marcados para 2020?

"Es un año de Eurocopa y esperamos un crecimiento. Aunque estamos rodeados de una situación macroeconómica bastante complicada y con bastante incertidumbre, aún así esperamos que se comporte positivamente el mercado y desde luego esperamos que en los meses de verano haya un gran repunte en las ventas".

Hemos hablado de gran pulgada como más de 75", pero qué hay de la "gran gran pulgada". Y con ello me refiero a las de más de 90 pulgadas. ¿De qué cuota hablamos?

"Muy poca. Tenemos que considerar que 75" y más es un 3%. Más de un 80% es menos del 0,5% del mercado".

¿Fue un error apostar tan fuerte por los televisores curvos?

"No, fue un desarrollo tecnológico que fue realmente aceptado y de hecho es una tecnología que ahora mismo la estamos poniendo al servicio de los monitores de gaming".

Algunas compañías como Huawei nos han mostrado sus televisores con HarmonyOS y cámara frontal. ¿Acabarán siendo los televisores también tablets grandes, más parecidos a un móvil y con capacidad de llamar?

"Samsung trabaja con su plataforma Tizen OS. Llevamos trabajando en nuestro sistema cerca de cuatro o cinco años y de hecho está ampliado a la gran mayoría de dispositivos Samsung. El tema de la cámara frontal lo tuvimos hace seis o siete años y el feedback que nos dio el consumidor era que no lo utilizaba. Dejamos de incorporarlo para abaratar el coste".

"El tema de la cámara frontal lo tuvimos hace seis o siete años y el feedback que nos dio el consumidor era que no lo utilizaba".

Samsung fue la primera marca en añadir Apple TV. Este año viene Disney+ y los contenidos parecen ser otro de los puntos donde las marcas vais a competir. ¿Qué tipo de contenido exclusivo ofrecerán este año los televisores Samsung?

"Los televisores Samsung viene con una app llamada TV Plus, exclusiva de Samsung. Juntamos más de 20 canales gratuitos en UHD para que desde el día uno el usuario pueda consumir contenidos UltraHD reales".

Y en España, ¿de esos contenidos UHD cuál me recomendarías?

"Bueno, TV Plus tiene contenido de deporte, de cocina... A mi los de deporte en general me gustan".

Salud, gaming… hay muchos mercados que últimamente se están asociando a la televisión. ¿Por qué esta tendencia de ampliación? ¿Estamos volviendo al salón para hacer tareas que antes hacíamos en la habitación, el gimnasio o en otros lugares?.

"Nosotros entendemos el televisor como el centro de entretenimiento familiar. Y el televisor no solamente lo vemos como para ver contenidos de vídeo, también para jugar a juegos. QLED es el mejor producto, el mejor televisor para jugar. Es el televisor con una capacidad de respuesta más corta, el lag de 15 a 10ms que hemos reducido este año. También tenemos el modo juegos que nos mejora muchísimo el contraste para poder ver mejores los contenidos".

"Luego el tema salud es porque es un mercado muy grande y muy potente, el consumidor quiere ser capaz además de en el teléfono, en su casa poder practicar el deporte y por ello hemos llevado este año Samsung Health al televisor".

Durante este CES, Samsung ha sido una de las marcas que más han apostado por aprovechar la feria para mostrar sus novedades. Algo que personalmente al equipo de Xataka le ha convencido, pues varios de nosotros hemos dado por ganador a esta compañía en este 2020. "Es el pistoletazo de salida para la industria del consumo. Y especialmente para televisor", nos explica Nacho. "Entre las tendencias, algunas son conceptos que se desarrollarán o no según lo que se vea en el mercado".

¿Con qué tendencias en el televisor nos quedamos entonces?

"El mercado de televisor vemos que es un mercado que empieza a estar saturado de tener simplemente un televisor en casa y los fabricantes nos esforzamos en introducir más televisores. Una pantalla en cada sitio. Los fabricantes desde el punto de vista tecnológico nos estamos esforzando al máximo en una optimización de la iluminación, que al final es lo que diferencia a un televisor de otro".

¿Y a nivel de resolución? ¿Esta carrera para acelerar plazos por el 8K no está pasando factura?

"Lo que vemos es que va a ser más rápido de lo que fue el 4K. El 4K nos costó entorno a seis años introducirlo de una manera mayoritaria en el mercado español. Nosotros empezamos el año pasado con el 8K, en 2020 creemos que se va a vender entre 5 y 8 veces más que el año pasado y esperamos que en un periodo de máximo entre 3 y 4 años, sea una tecnología totalmente adoptada y maximizada en el mercado".

"Empezamos el año pasado con el 8K. En 2020 creemos que se va a vender entre 5 y 8 veces más que el año pasado y esperamos que en un periodo de entre 3 y 4 años sea una tecnología totalmente adoptada".

Los televisores se verán mejor, más grandes, más finos, más brillantes, etc. Pero como tal, de momento no han cambiado especialmente su uso. ¿Es posible que veamos una revolución? ¿Cómo te imaginas el mercado de aquí a cinco años?

"Es muy difícil. Lo que veo son tecnologías que optimicen la iluminación de una manera increíble. Veo televisores de muy gran pulgada. De aquí a cinco años creo que en la mayoría de las tiendas veremos teles de 75 o 85" sin problemas y al consumidor teniendo en su casa, teles de 80, 85 o 90 pulgadas".

-
La noticia "MicroLED trae lo mejor de las dos grandes tecnologías que hay ahora mismo", entrevista a Nacho Monge (Samsung) fue publicada originalmente en Xataka por Enrique Pérez .

Ver Noticia Completa

7

España declara el estado de emergencia climática: qué significa y cómo nos afecta

martes, 21 enero 2020 05:38:33

España declara el estado de emergencia climática: qué significa y cómo nos afecta

El Gobierno ha declarado la emergencia climática este mismo martes, cumpliendo con unas intenciones propuestas ya durante el pasado septiembre. Con ello, España se suma a las más de 800 administraciones en emergencia climática.

Pero, más allá de lo llamativo del término, ¿qué consecuencias reales tiene dicha declaración? ¿Cómo afectará, desde un punto de vista práctico, a los ciudadanos? Por el momento, la declaración de emergencia climática no deja de ser un acto simbólico que, aunque está relacionado con una serie de infraestructuras y medidas, todavía tiene mucho por definir.

España en emergencia climática

El Ejecutivo ha dado luz verde a la declaración de estado de emergencia climática, según explicaban para prensa este martes. No es una medida que nos pille de sorpresa, pues ya en septiembre se debatió la propuesta no de ley sobre esto, que fue aprobada por casi todos los partidos. Siguiendo las propuestas del partido, el Gobierno ha ejecutado la medida, adhiriendo a España a las más de 800 administraciones que ya lo han hecho.

Con esta acción se pretenden declarar los pasos a seguir para llevar al país hacia una descarbonización. Los objetivos propuestos por el pacto de Gobierno del PSOE y Unidas Podemos, proponen que en 2040 entre el 85% y el 95% de la energía que se consuma sea renovable y en 2050 el 100%, para reducir las emisiones de CO2.

Entre las medidas para adoptar en los siguientes 100 días, el Gobierno propone:

  • Adoptar compromisos específicos alineados con la necesidad de trabajar en beneficio del clima
  • Remitir la Ley de Cambio Climático y promover su aprobación
  • Definir la senda de descarbonización a seguir a corto y medio plazo
  • Reforzar la participación, creando una asamblea ciudadana al ejemplo de Francia
  • Integrar la transición energética en la economía productiva del país

Además de estos cinco puntos, el Ejecutivo asegura contar con 25 líneas de acción más, aunque no se han hecho más proposiciones concretas ni tampoco se han declarado medidas legislativas o ejecutivas específicas para alcanzar estas propuestas de objetivos. Al fin y al cabo, la figura de "emergencia climática" no deja de ser un simbolismo, una declaración de buenas intenciones, pero no una guía práctica de actuaciones.

Esto quiere decir que, dependiendo de la entidad que lo declare, las medidas adoptadas pueden ser completamente distintas. Esto, precisamente, ha dado mucho que hablar, pues proponer medidas poco realistas no deja de ser un brindis al sol. En España, Barcelona y Madrid ya declararon municipalmente el estado de emergencia climática, adoptando medidas locales.

¿Qué significa estado de emergencia climática?

El llamado estado de emergencia climática no es otra cosa que una medida adoptada por diversas entidades, ciudades, Gobiernos, universidades... como respuesta al cambio climático.​ La medida surge de la propuesta activista como una forma de declarar el reconocimiento de la situación medioambiental así como la buena predisposición para adoptar soluciones.

La declaración de emergencia climática se centra muchas veces en lograr reducir las emisiones de carbono a cero en un plazo determinado y ejercer presión política a los Gobiernos para que tomen conciencia sobre la situación de crisis ambiental existente. Esto, precisamente, es lo que vemos en cuanto al Gobierno español, objetivos, que no medidas concretas.

Photo 1516937941344 00b4e0337589

Pero no son los únicos objetivos que se pueden adoptar. Algunos países han adoptado acciones como la prohibición de venta de coches diésel o gasolina a partir de 2030 o la prohibición de calderas de petróleo y gas, la prohibición de objetos de plástico de un solo uso,​ el impulso de las energías renovables, la expansión de las redes de recarga de vehículos eléctricos, o la reforestación.

Como vemos, estas depende casi exclusivamente de la decisión de cada entidad, por lo que se ha criticado la falta de líneas generales o guías más drásticas. Por poner un ejemplo, el Parlamento Europeo, que también declaró la emergencia climática en noviembre, solo ha indicado que se reducirán las emisiones en un 55% para 2050, o que se reducirán las producidas por los medios de transporte, pero no han incidido de forma más concreta sobre las medidas específicas.

¿Qué podemos esperar, entonces? De manera general, con esta acción, cabe aguardar un apoyo sistemático a medidas relacionadas con la reducción de emisiones y contaminación. ¿Cuáles? No lo sabemos, y ahí está el quid de la cuestión. Todavía deberemos esperar un poco para ver en qué cristalizan las decisiones del Ejecutivo.

Imágenes | Unsplash

-
La noticia España declara el estado de emergencia climática: qué significa y cómo nos afecta fue publicada originalmente en Xataka por Santiago Campillo .

Ver Noticia Completa

8

SenseTime desarrolla una IA capaz de crear vídeos deepfake realistas a partir de un clip de audio

martes, 21 enero 2020 05:00:36

SenseTime desarrolla una IA capaz de crear vídeos deepfake realistas a partir de un clip de audio

La inteligencia artificial puede aplicarse en infinidad de campos y uno de los más controvertidos es el de la manipulación de vídeos. Estos clips manipulados, conocidos como deepfakes, suponen todo un reto para las grandes plataformas sociales como Facebook, y es que no dejan de mejorar y de hacerse más difíciles de detectar. Prueba de ello es la nueva IA de SenseTime, el gigante tecnológico de Hong kong, que es capaz de crear deepfakes realistas.

Resumiendo su funcionamiento, la IA detecta en cada frame de un vídeo elementos como la expresión, la geometría y la pose de la cara. Posteriormente, explican los autores del artículo, "se introduce una red recurrente para traducir el audio de origen en parámetros de expresión que están relacionados con el contenido de audio". Estos parámetros de expresión se usan para sintetizar un "humano foto-realista" en cada frame del vídeo "con el movimiento de las regiones de la boca mapeado con precisión al audio de origen".

¿En qué se traduce esto? En que el vídeo generado emula las expresiones faciales que se interpretan del clip de audio original, pero respetando la pose y características del rostro del sujeto, dando como resultado un vídeo realista que, como pudieron comprobar los autores del estudio, es complicado de detectar a simple vista por los usuarios.

Mapeando un vídeo usando el audio como fuente

Esquema Esquema del funcionamiento de la IA de SenseTime. Como puede verse, la IA vincula el clip de audio con expresiones faciales para, posteriormente, aplicar dichas expresiones faciales a un vídeo.

La metodología seguida por los investigadores es relativamente sencilla. Puedes ver un esquema en la imagen superior y se puede resumir en tres pasos:

  1. Registrar un modelo facial paramétrico en 3D que incluye, como decíamos, la geometría de la cara, la pose y los parámetros de la expresión en cada frame del vídeo.
  2. La red de traducción de audio a expresión "aprende" el mapeo de la fuente de audio para aplicar los parámetros de expresión. A este se le aplica Audio ID-Removing Network, que sirve para eliminar los problemas de grandes variaciones cuando se usan audios de diferentes personas. Es importante, ya que los escasos datasets de vídeos disponibles incluyen diferentes sujetos, cada uno con su acento y su tono.
  3. Finalmente, se genera una malla facial 3D reestructurada usando los puntos de referencia de la región de la boca en cada frame. Dicho de otra forma, la cara generada por la IA mueve la cara y la boca para simular que está diciendo lo que se dice en el audio original, lo que hace que el vídeo sea foto-realista.

En otras palabras, la inteligencia artificial de SenseTime puede coger un clip de cualquier persona y hacer que diga lo que sea respetando la expresión facial del sujeto y sus movimientos, pero aplicando las expresiones faciales extraídas del clip de audio. Es curioso, de hecho, que la IA funciona incluso con diferentes poses. En el minuto 2:36 del vídeo bajo estas líneas puedes ver un ejemplo. Los resultados son de lo más realistas, hasta el punto de que la IA puede hacer que una persona cante (3:26 del vídeo inferior).

En el vídeo superior se muestran varias ejemplos y resulta llamativo el detalle de la textura de la cara, los dientes, el movimiento de los labios, las líneas faciales y hasta los hoyuelos. El modelo, eso sí, no es perfecto, ya que no es capaz de imitar emociones o estimar los sentimientos expresados en el clip de audio que se usa como fuente, solo recoge las expresiones faciales asociadas.

De la misma forma, se ignora la lengua, lo que hace que algunos fonemas como "z" (cuya pronunciación requiere poner la lengua entre los dientes) no se emulen de forma natural. Finalmente, los investigadores destacan que el modelo tiende a ofrecer peores resultados cuando el clip de audio original tiene mucho acento. Ponen el ejemplo de una persona que habla inglés con acento ruso, cuyo clip de audio no termina de sincronizarse bien con la malla 3D sintetizada por la IA.

En este GIF, el vídeo generado está diciendo "many to one results" y puede comprobarse cómo la boca y los gestos de la cara concuerdan perfectamente con el audio origina. Literalmente, casi pueden leerse los labios del sujeto para saber qué está diciendo - VentureBeat

Sea como fuere, los clips se evaluaron mostrándolos a un equipo de 100 voluntarios que debían marcar si un vídeo era verdadero o había sido sintetizado. En total fueron 168 vídeos, la mitad falsos y la mitad verdaderos, y el resultado fue que los vídeos generados por la IA fueron etiquetados como reales el 55% de las veces, mientras que los vídeos reales fueron marcados como tales el 70,1% de las veces.

Se trata de un proyecto interesante que podría usarse, como afirman los investigadores, "para avanzar en la edición de vídeo". Sin embargo, también son conscientes de que tiene "potencial" para ser "mal usado o abusado" con diferentes propósitos, como manipulación de medios o difusión de propaganda maliciosa. Precisamente por ello, afirman, "defendemos y apoyamos firmemente todas las medidas de salvaguardia contra esas prácticas de explotación" y "acogemos con satisfacción la promulgación y aplicación de legislación que obligue a que todos los vídeos editados sean etiquetados claramente como tales".

Vía | VentureBeat

-
La noticia SenseTime desarrolla una IA capaz de crear vídeos deepfake realistas a partir de un clip de audio fue publicada originalmente en Xataka por José García .

Ver Noticia Completa

9

Estos investigadores plantean un futuro de robots (y humanos) Spider-Man con su nuevo sistema para copas de vacío

martes, 21 enero 2020 04:30:35

Estos investigadores plantean un futuro de robots (y humanos) Spider-Man con su nuevo sistema para copas de vacío

Que tanto humanos o personas sean capaces de trepar por las paredes. Ésa es la idea que unos investigadores han decidido llevar a cabo, construyendo un dispositivo que permite crear un vacío funcional donde los sistemas habituales fallan.

Alguna vez hemos visto a gente que intenta trepar por edificios, como aquél que intentó escalar la Torre Trump de Nueva York en 2016. Normalmente esto se hace (o se intenta) con unas copas de vacío, pero la limitación de las mismas es la superficie, teniendo que ser algo liso como cristal o mármol, y ahí es donde destaca este invento.

Un nuevo sistema para trepar de manera más eficiente

Se trata del proyecto de Xin Li y Kaige Shi, investigadores de la Universidad Zhejiang en China. Han logrado desarrollar una nueva unidad de vacío capaz de "pegarse" a superficies rugosas e irregulares, buscando solucionar el problema que tienen las copas tradicionales con esas superficies no lisas.

Lo han llamado "método ZPD" y se basa en una capa de agua que rota en la periferia de la zona de vacío, resultando en una inercia que genera un gradiente de presión el cual permite que se mantenga el vacío en el centro, mientras en lo periférico la presión se mantiene equivalente a la atmosférica. Según explican en su trabajo, publicado en Physics and Fluids, con este sistema su dispositivo es más eficiente que uno que trabaje con bombas.

Vacio 01 Dibujo esquemático de una copa de vacío tradicional (izquierda) y su método ZPD (derecha). Imagen: Kaige Shi y Xin Li
Vacio 02 Comparación de las copa de vacío tradicional (izquierda y centro) y su método ZPD (derecha). En la gráfica se ven las zonas de presión, viendo que en la unidad ZPD se produce en el centro. Imagen: Kaige Shi y Xin Li

De este modo, su método se basa en crear una especie de circuito de agua hacia los bordes de la copa de succión de manera que se mantiene el vacío únicamente en el medio. Su unidad ZPD genera una fuerza de succión de unos 245 Newtons en superficies rugosas, consumiendo menos de 400 vatios y pesando unos 800 gramos, sin la necesidad de la bomba de vacío que necesitaría una copa de succión tradicional, explican.

Vacio 04 La A es una unidad ZPD montada al extremo final de un brazo robótico, la B es un robot trepador con seis unidades ZPD y la C muestra el uso de una unidad por un ser humano. Imagen: Kaige Shi y Xin Li

Para humanos, pero sobre todo para rbots

La idea es que en ciertas tareas que hoy en día suponen un riesgo para el ser humano se pueda tener la ayuda de la tecnología y minimizar así el peligro, igual como los hemos visto para estudiar volcanes, la limpieza de catástrofes nucleares o el robot que subía escaleras del MIT, pensado para "trabajos peligrosos, sucios o difíciles"

Los investigadores han logrado hacer funcionar su unidad ZPD tanto con seres humanos como con robots, especificando brazos robóticos, robots escaladores y otros dispositivos pensados para subirse por las paredes literalmente. Su idea es que haya robots diseñados para tareas peligrosas sobre paredes altas, como limpieza, construcción y rescate.

Lo próximo en su línea de investigación es reducir el consumo de agua, de modo que la unidad pueda así mejorar su eficiencia y poder trabajar durante más tiempo con una cantidad mínima de agua. Veremos si en un tiempo vemos a robots trepadores dejando limpias las fachadas de los rascacielos más altos, de momento nos quedan otros inventos como el robot aspirador dron.

-
La noticia Estos investigadores plantean un futuro de robots (y humanos) Spider-Man con su nuevo sistema para copas de vacío fue publicada originalmente en Xataka por Anna Martí .

Ver Noticia Completa

10

La presión de los EE.UU surte efecto: Francia paraliza su impuesto del 3% a las grandes empresas tecnológicas

martes, 21 enero 2020 04:09:19

La presión de los EE.UU surte efecto: Francia paraliza su impuesto del 3% a las grandes empresas tecnológicas

El pasado verano, el gobierno francés encabezado por Emmanuel Macron aprobó una tasa a las grandes tecnológicas, un impuesto del 3% que las grandes empresas afectadas como Google o Amazon decidieron repercutir en los clientes. Pero los presidentes de Francia y EE.UU han acordado esta semana darse hasta que termine el año para negociar sobre el impuesto digital, paralizando por el momento la aplicación de esta tasa.

Se paraliza así la disputa que mantenían los dos países. Un acuerdo que llega días antes de la celebración del Foro Económico Mundial de Davos y que los dos presidentes han celebrado en sus respectivas cuentas personales en las redes sociales.

Lo cierto es que la tasa GAFA no se ha retirado, únicamente paralizado. Como informa el Wall Street Journal, la recolección de impuestos puede posponerse a la espera de alcanzar un acuerdo más amplio. Según los cálculos del gobierno francés, con este impuesto esperaban recaudar unos 650 millones de euros durante 2020, afectando a más de una treintena de empresas tecnológicas. Principalmente norteamericanas.

Trump amenazó con nuevos aranceles de "hasta el 100%" a productos franceses

A principios de diciembre, a través de la Oficina del Representante Comercial de Estados Unidos, se anunció una investigación sobre este impuesto avisando que "discriminaba injustamente a las empresas tecnológicas estadounidenses". En respuesta, el gobierno de Donald Trump explicó que podían aprobarse nuevos aranceles sobre las importaciones francesas con un valor de hasta 2.400 millones de dólares.

Trump ha calificado como "excelente" la decisión de Macron, después que este explicara que se mantuvo una "gran discusión" y "trabajarán juntos en un buen acuerdo para alejarse de la escalada de aranceles".

Trump Francia

Según explica el WSJ, las autoridades francesas esperan alcanzar un acuerdo internacional sobre el impuesto digital para final de este año. Y es que Francia no es el único país en explorar esta tasa a las grandes empresas tecnológicas, pues Italia y Austria también han anunciado sus planes. Adicionalmente, Canadá, Reino Unido o España también han mostrado intención de aplicarla.

Mientras, el gobierno de España acelera por implementarla

El recién nombrado presidente de España, Pedro Sánchez, tiene intención de aplicar este impuesto del 3% y calculan que podría recaudar hasta 1.200 millones de euros. Una cifra que las patronales tecnológicas consideran "muy difícil" de alcanzar.

Ante la intención del gobierno de España de aplicar esta tasa, fuentes gubernamentales detallan que hace unos días recibieron solicitud de Apple, Google y Amazon para reunirse en privado con Sánchez en el Foro de Davos y conocen sus intenciones. De esta manera, Pedro Sánchez se reunirá con Tim Cook (CEO de Apple), Andy Jassy (consejero delegado de Amazon Web Services) y Matt Brittin (responsable de Google EMEA). Habrá que esperar si España da el paso de aplicar esta "tasa Google" e inicia su propia disputa económica con los EE.UU.

-
La noticia La presión de los EE.UU surte efecto: Francia paraliza su impuesto del 3% a las grandes empresas tecnológicas fue publicada originalmente en Xataka por Enrique Pérez .

Ver Noticia Completa

11

Estos son los tres fracasos más estrepitosos de Nintendo, y así fue como consiguió salir reforzada

martes, 21 enero 2020 04:02:22

Estos son los tres fracasos más estrepitosos de Nintendo, y así fue como consiguió salir reforzada

Nintendo siempre ha tenido la peculiar capacidad de polarizar a los usuarios. Sucedió, en cierta medida, durante su primera etapa en la industria de los videojuegos y en plena competencia con Sega. Y, sobre todo, se ha repetido en innumerables ocasiones durante la última década y media. No hace falta que nos remontemos muy atrás en el tiempo para comprobarlo. Basta que nos fijemos en la reacción de la comunidad ante su último Nintendo Direct mini, o, sobre todo, después de la presentación de Nintendo Labo.

Lo más curioso, en realidad, no es que provoque opiniones encontradas, algo que sucede también con los otros grandes actores de la industria, y que se repite, cómo no, en Sony y Microsoft. Lo interesante es la pasión con la que muchos usuarios se posicionan a favor o en contra de buena parte de las decisiones de la compañía de Kioto, y también cómo esa polarización parece formar parte del ADN de la empresa desde poco después de su aterrizaje en la industria de los videojuegos.

Nintendo ha tenido, desde su nacimiento, la capacidad de reinventarse, aunque también ha cometido grandes errores

Quizás sea el precio a pagar por ir, con frecuencia, a contracorriente. O quizás esté propiciado por la capacidad de Nintendo de reinventarse y sorprender. Porque lo que es indiscutible es que esta empresa, que nació en el ya muy lejano 1889, sabe qué debe hacer para renovarse e imponerse a las circunstancias.

Un inicio repleto de cambios

En aquella época, a finales del siglo XIX, Nintendo se dedicaba principalmente a fabricar barajas de cartas Hanafuda, unos naipes japoneses que tienen mucha tradición en este país asiático. Y Fusajiro Yamauchi, el fundador de Nintendo, lo hacía realmente bien. Quizás demasiado bien. Sus barajas tenían tanta calidad que su duración era muy prolongada, lo que provocó, según algunas fuentes, que la mafia japonesa, los yakuza, las utilizasen en sus partidas.

Barajas

El problema es que la alta calidad de las cartas y su gran longevidad ocasionaron que la tasa de reposición fuese muy baja, y, por tanto, las buenas ventas iniciales no tardaron en reducirse hasta cotas alarmantes. Pero aquel joven de Kioto estaba decidido a no rendirse fácilmente.

Lo primero que hizo fue lanzar nuevas barajas de cartas de menor calidad e inferior precio, y, además, consiguió ser el proveedor de muchas salas de juego, que renovaban sus barajas con frecuencia. El negocio remontó y gracias a que sus cuentas estaban saneadas logró superar, primero, la guerra entre Japón y Rusia que tuvo lugar entre 1904 y 1905, y la Segunda Guerra Mundial varias décadas después.

Yamauchi

En esta última etapa Nintendo era dirigida por Hiroshi Yamauchi, el bisnieto de Fusajiro Yamauchi, que llegó a la presidencia de la compañía en 1949, poco después de la conclusión de la Segunda Guerra Mundial (1945). Y es precisamente bajo su mandato cuando la firma da las primeras muestras importantes de esa capacidad de reinvención de la que os he hablado unas líneas más arriba.

La empresa iba bien, aun con altibajos, pero Hiroshi era ambicioso y quería que creciese. Por esta razón, probó suerte en el negocio de los paquetes de arroz instantáneo, pero no funcionó. También probó fortuna en los sectores de los taxis y los hoteles «íntimos», pero, por diversas razones, como desavenencias con los sindicatos, tampoco consiguieron cuajar.

Gamewatch

Y, por fin, haciendo gala, una vez más, de esa capacidad de adaptación, Nintendo se adentró en la industria juguetera con la intención de competir con Bandai y Takara, dos de las marcas que lideraban este sector. Fue durante esta etapa cuando comenzó a forjarse la Nintendo que todos conocemos hoy. Su posición en el mercado de los juguetes se fue consolidando, y Yamauchi no tardó en ver en los juguetes electrónicos un potencial del que carecían los juguetes tradicionales.

Yokoi

Una de las piezas clave de la innovación en Nintendo en materia de juguetes electrónicos fue el ingeniero Gunpei Yokoi, que comenzó desarrollando unas pistolas de luz, y años después fue el principal artífice de Game Boy, ya con una Nintendo plenamente asentada en el mercado de los videojuegos. Y es que la entrada de la compañía en la industria de los juguetes electrónicos, y, poco después, en la de los salones arcade, fue lo que propició el lanzamiento en 1977 de la Color TV Game, la primera videoconsola de Nintendo. Después llegaron las Game & Watch, las antecesoras de las consolas portátiles actuales, la NES, la Game Boy original... El resto, es historia.

Este pequeño repaso a los orígenes de Nintendo no pretende en absoluto ser exhaustivo. Contarlo todo en detalle requiere que le dediquemos un artículo en exclusiva. Mi intención simplemente es que podamos conocer algunas decisiones tomadas por los responsables de la empresa que pueden ayudarnos a valorar la capacidad de adaptación y reinvención que ha tenido desde sus orígenes. Aunque, como vamos a ver, en Nintendo no siempre han conseguido mantenerse ajenos a las tendencias de la industria de los videojuegos.

Nintendo también apostó por la potencia

A los jugones más jóvenes les parecerá que la época de Super Nintendo pertenece a la prehistoria, pero los que la vivimos en su momento (algo que podemos «refrescar» ahora gracias a Super Nintendo Classic Mini) recordamos vívidamente cómo los de Kioto, en aquel momento, defendían con vehemencia su consola como la más potente del mercado. «El cerebro de la bestia», decían.

En algunos apartados, como su paleta de colores, el número máximo de sprites en pantalla y su sonido, efectivamente, Super NES era superior a Mega Drive, la consola de Sega por aquel tiempo. Pero esta última la aventajaba en otras especificaciones, como son la mayor rapidez de su CPU (pasamos de los 3,58 MHz de Super NES a los 7,67 MHz de Mega Drive) o su memoria ROM de 1 MB. Pero esto es «harina de otro costal». Ambas máquinas contaron con un catálogo sobrecogedor y han pasado a la historia como lo que realmente fueron: dos consolas excepcionales.

Supernes

Con Nintendo 64 sucedió algo parecido. También se posicionó como un auténtico monstruo tecnológico. Merece la pena que recordemos este pedacito de la historia de los videojuegos para que podamos poner en contexto cómo ha evolucionado con el tiempo la estrategia de Nintendo. Al fin y al cabo es lo que vertebra a la compañía, en la que se han alternado etapas más conservadores con fases en las que imperaba la innovación.

Durante la época de Super NES, Nintendo 64 y GameCube los de Kioto aún competían por las especificaciones

Como hemos visto, esta empresa no siempre se ha desmarcado de sus competidores de la forma en la que lo hace hoy, que no es otra que apostando por la originalidad de manera contundente. Adoptando riesgos. Sorprendiendo tanto a los usuarios como a la competencia.

No obstante, el riesgo ha demostrado ser un arma de doble filo. Fue el responsable de un éxito tan rotundo como el de Wii, y también el «culpable», aceptando una simplificación excesiva, por supuesto, de fracasos tan sonados, y probablemente injustos, como el de Wii U. Esto es, precisamente, de lo que va este artículo. Y es que los vaivenes de Nintendo bien merecen un análisis que nos ayude no solo a entender el pasado de esta firma, sino también a intuir qué caminos tomará en el futuro.

Ventasnintendo
El último informe de ventas publicado por Nintendo, con fecha 30 de septiembre de 2019, refleja que Nintendo 3DS tiene unas ventas acumuladas de 75,45 millones de unidades, una cifra muy respetable pero que aún no permite a esta consola portátil colocarse por delante de Game Boy Advance.

El primer mazazo: Virtual Boy

Como podéis ver en el gráfico que tenéis encima de estas líneas, Virtual Boy fue un fracaso desde un punto de vista comercial. En 1995, que fue cuando esta consola llegó a los mercados japonés y estadounidense (en Europa nunca llegó a comercializarse), Nintendo ya estaba firmemente asentada en la industria de los videojuegos. En aquel momento la familia de consolas portátiles Game Boy y la Super Nintendo funcionaban a las mil maravillas, y a los de Kioto les había ido muy bien con NES durante años.

Virtualboy1

Sin embargo, Virtual Boy, que había sido diseñada por un equipo liderado por Gunpei Yokoi, el mismo ingeniero que había contribuido decisivamente a la creación de buena parte del hardware que Nintendo había lanzado hasta la fecha, como las Game & Watch o la Game Boy, vendió tan solo unas 770.000 unidades.

Esta cifra no se acercaba ni remotamente a los casi 62 millones de NES que habían logrado colocar en el mercado. Y tampoco a las decenas de millones de Game Boy que ya habían vendido. Ni siquiera se acercaba a las cifras de Super Nintendo, que acabó vendiendo un total cercano a los 50 millones de consolas.

Vb2

Vender menos de un millón de consolas era un fracaso estrepitoso para Nintendo. Tanto fue así que incluso Yokoi, que hasta ese momento apenas se dejaba ver en ferias de videojuegos y no solía aparecer en los medios de comunicación, se sintió obligado a dar la cara y apareció en varios eventos para intentar explicar por qué Virtual Boy merecía la pena. Pero no funcionó.

Esta consola recibió solo 22 juegos y estuvo únicamente unos meses en el mercado, lo que ha terminado colocándola como una máquina de culto que solo podemos conseguir en el mercado de la segunda mano a precios muy elevados.

La experiencia que ofrecía Virtual Boy no convenció ni a la prensa ni a los usuarios, lo que provocó que solo vendiese 770.000 unidades. Todo un varapalo para Nintendo

En cualquier caso, ¿por qué fracasó Virtual Boy? No fue por una única razón, sino por una concatenación de varios motivos. Por un lado, el peculiar diseño de la consola (era una especie de visor binocular concebido para generar imágenes tridimensionales aprovechando nuestra visión estereoscópica) impedía a las revistas de videojuegos mostrar imágenes de los títulos, un recurso muy apreciado por los jugones en una época en la que Internet estaba muy lejos de estar al alcance de todo el mundo.

Vb3

Además, Virtual Boy no era realmente una consola portátil. Era grande y para utilizarla era necesario colocarla sobre una superficie estable y mantenerse sentado, con la cabeza pegada al visor. He tenido la ocasión de probarla varias veces y os aseguro que resulta incómodo mantener esa postura durante un período de tiempo relativamente prolongado.

También debemos tener en cuenta que adolecía de limitaciones técnicas importantes. Razonables para esa época, pero, aun así, importantes. Y es que, para evitar que fuese demasiado cara, Nintendo decidió integrar dos pantallas LCD una matriz de diodos LED de color rojo capaz de restituir imágenes en rojo y negro, y no a todo color.

Vb4

Según Yokoi, esta decisión no respondía solo a un criterio de costes; tras ella también había razones técnicas. Y es que, al parecer, la sensación de profundidad que transmitían las pantallas LCD en color de esa época dejaba mucho que desear.

En materia gráfica Virtual Boy estaba muy por detrás de las consolas de sobremesa de la época

Además, las pantallas en color consumían mucho más, lo que las transformaba en unas auténticas devoradoras de pilas. No me cabe ninguna duda de que las razones técnicas esgrimidas por Gunpei Yokoi son creíbles, pero lo cierto es que la experiencia que ofrecía Virtual Boy a los usuarios no era convincente.

No era realmente portátil, utilizarla durante mucho tiempo resultaba muy incómodo, tenía un catálogo muy limitado, su capacidad gráfica era muy inferior a la de las consolas de sobremesa más asentadas en esa época, como Super Nintendo o Mega Drive... Demasiados inconvenientes para lograr calar entre los jugones. Aun así, todo esto no ha impedido que Virtual Boy sea actualmente una consola muy apreciada por los coleccionistas.

La segunda, en la frente: GameCube

Nintendo 64, la sucesora de Super Nintendo, lo tuvo más difícil que las anteriores consolas de sobremesa de los de Kioto. Tuvo que vérselas en la calle con la primera PlayStation, una máquina esta última que confirmó a Sony a las primeras de cambio como un contendiente «duro de pelar».

Aun así, Nintendo 64 contaba con un hardware puntero en 1996, así como con un catálogo muy bueno, lo que permitió a esta máquina vender un total cercano a los 33 millones de consolas, una cifra inferior a las de NES y Super Nintendo, pero, aun así, una buena cifra.

GameCube era una buena máquina, dotada de un hardware muy capaz, pero tuvo la mala fortuna de verse obligada a competir con un auténtico titán como fue PlayStation 2

La que no tuvo tanta fortuna fue GameCube, la sucesora de Nintendo 64. Cuando llegó a las tiendas, entre 2001 y 2002 dependiendo del país, tuvo que hacerse un hueco en un mercado mucho más competido que en generaciones anteriores. GameCube se enfrentó a la Dreamcast de Sega, a la primera Xbox de Microsoft, y, sobre todo, a la PlayStation 2, clara dominadora de esa generación.

Gamecube

Hasta GameCube Nintendo se mantuvo en la liza con la competencia por colocar en el mercado la máquina más potente en términos absolutos. Y es que el cubo de los de Kioto era más potente que PlayStation 2 y Dreamcast, aunque algo menos que la primera Xbox, lo que demuestra, como os anticipé unos párrafos más arriba, que Nintendo no siempre ha ido a contracorriente.

Aun así, Nintendo tomó una decisión arriesgada con esta consola al decantarse por distribuir los juegos utilizando un disco óptico propietario, conocido como GOD (GameCube Optical Disc), que no era otra cosa que un mini-DVD con una capacidad de 1,5 Gbytes. Su intención era dotar a su máquina de las ventajas que representaba la incorporación de una unidad óptica frente a los cartuchos (especialmente por su mayor capacidad de almacenamiento), y, al mismo tiempo, combatir la piratería.

El momento en el que llegó al mercado, que fue tardío, y el uso de un formato óptico propietario lastraron el futuro de GameCube

Sin embargo, a medio plazo esta decisión, lejos de favorecer a Nintendo, la perjudicó. PlayStation 2 era una consola que resultaba relativamente fácil piratear, y, además, podía reproducir tanto CD de música como películas en DVD, lo que contribuyó a que muchas personas se hiciesen con ella.

Además, GameCube se vio perjudicada por su tardía llegada al mercado. Cuando aterrizó en las tiendas, Dreamcast (¡qué gran consola!) llevaba varios años luchando, y, desafortunadamente, sufriendo, y PlayStation 2 también llevaba un año en las tiendas. Esta ventaja, unida a las que he mencionado en el párrafo anterior, representaron un lastre que GameCube no pudo afrontar.

Nintendo tan solo consiguió vender una cifra inferior a los 22 millones de consolas, lo que representó un auténtico varapalo para una empresa que, hasta entonces, solo había cosechado malos resultados comerciales con Virtual Boy. Esa cantidad de máquinas era estrepitosamente inferior a las cifras de NES, Super Nintendo y Nintendo 64.

Mando

GameCube no tuvo un mal catálogo en absoluto. No fue tan amplio como el de PS2, su más duro rival, y tampoco como el de otras máquinas anteriores de Nintendo, pero contó con títulos de gran calidad aclamados tanto por la prensa como por los jugadores, como The Legend of Zelda: the Wind Waker, Super Mario Sunshine, el remake del Resident Evil original, los Resident Evil 0 y 4, Metroid Prime 2 Echoes, el primer Pikmin y un largo etcétera. Como veis, su catálogo no está nada mal.

El fracaso de GameCube fue tan duro para Nintendo desde un punto de vista económico que se vio obligada a replantearse radicalmente su estrategia. Aquí tenemos un momento crucial en la historia de esta compañía; el momento en el que decide desmarcarse completamente de la lucha por las especificaciones y apostar todas sus cartas por la innovación y la originalidad.

El resultado de este cambio de rumbo no fue solamente Wii, un exitazo comercial con el que Nintendo logró rebasar los 100 millones de consolas, sino también Wii U y Switch, dos máquinas que, al igual que Wii, se afianzan sobre una visión muy diferente del mundo de los videojuegos de la que nos ofrecen sus competidoras, aunque con un rendimiento comercial muy desigual, como veremos a continuación.

Quizás su fracaso más injusto: Wii U

Tildar un fracaso como este de injusto puede ser... injusto. Y es que normalmente cuando sucede algo así en el sector de los videojuegos es que algo no se ha hecho bien. Y Nintendo tomó en 2012, justo antes del lanzamiento de la sucesora de la exitosísima Wii, varias decisiones que han demostrado, con la serenidad que da la perspectiva, no ser acertadas.

Existe cierto consenso entre los usuarios en el hecho de que los responsables de marketing de la empresa se equivocaron al elegir el nombre de esta consola. Es evidente que pensaron que Wii U era una buena opción para la sucesora de Wii. Compartir una parte del nombre debía crear un vínculo entre ambas máquinas, reforzando la posición de Wii U como heredera espiritual de Wii. Creyeron que, de esta forma, el éxito de esta última representaría un inmejorable punto de anclaje para su sucesora. Pero no fue así.

Wiiu

Una parte importante de los usuarios de Wii, aquellos que habitualmente se identifican como jugadores casuales, y que, por tanto, no están a la última en lo que tiene que ver con la actualidad de la industria de los videojuegos, creyeron que Wii U era, en realidad, una especie de accesorio de Wii. Una idea reforzada, además, por el aspecto del mando tablet de Wii U.

Wii U contaba con buenas ideas, como el juego asimétrico o las partidas remotas, pero Nintendo no encontró la forma de explicar bien qué experiencia nos ofrecía esta consola

Pero esto no es todo. Además, Nintendo no estuvo acertada a la hora de explicarnos qué es lo que nos ofrecía su nueva propuesta. Pocas personas, más allá de los jugones, entendieron realmente qué era aquello del juego asimétrico. Tampoco estaba claro qué aportaba a la experiencia el Wii U GamePad, que era como se llamaba realmente el mando tableta de esta consola. Es posible que Nintendo ni siquiera consiguiera transmitir de forma rotunda la importancia que tenía en aquel momento el juego a distancia, posible gracias al GamePad.

Y es que no basta con tener la oportunidad de probarla en los expositores de las tiendas de videojuegos y en los centros comerciales. Muchas personas no tuvieron la oportunidad de probarla de esta forma, y, por tanto, de entender qué nos proponía. Además, su catálogo inicial no fue, ni mucho menos, tan contundente como el de Switch. Aunque, a decir verdad, pocas máquinas han recibido durante sus primeros meses de vida un aluvión de imprescindibles como el que ha colocado a la híbrida de Nintendo donde está.

Wiiu

Sin embargo, pese a todo esto y sin necesidad de que yo venga ahora a reivindicarla, algo que muchos otros han hecho antes, Wii U está a punto de pasar a la historia como una buena máquina Wii U ha pasado a la historia como una buena máquina. Y escribo «está a punto» porque aún podemos encontrar tanto esta consola como algunos de sus juegos en las vitrinas de muchas tiendas de videojuegos.

Su catálogo puede no ser, y, de hecho, no lo es, tan amplio como el de otras plataformas, pero está repleto de joyas. Bayonetta 2, Splatoon, Mario Kart 8, Xenoblade Chronicles X, Super Mario Maker y las ediciones HD de los The Legend of Zelda: Twilight Princess y The Wind Waker son tan solo algunos de sus títulos alabados unánimemente por la prensa especializada y los jugadores. Es más, incluso The Legend of Zelda: Breath of the Wild, bendecido como uno de los mejores juegos de la historia por muchos jugones, nació como un juego de Wii U que fue trasladado a Switch y lanzado simultáneamente en ambas plataformas para combatir el en aquel momento irremediable fracaso de Wii U.

El catálogo de Wii U es fantástico, aunque no muy numeroso. Cuenta con joyas como Bayonetta 2, Splatoon, Super Mario Maker o Mario Kart 8, entre otras

Pero, ¿cuánto ha vendido Wii U? Buena parte de las fuentes coinciden en situar esta cifra alrededor de los trece millones y medio de consolas, una cifra dramáticamente inferior a los más de cien millones que vendió Wii. Y es que incluso Switch, en tan solo sus primeros diez meses de vida, y según los últimos informes de Famitsu y GBH Insights, ha superado las ventas globales de Wii U durante toda su vida comercial, rebasando los quince millones en todo el mundo.

El último informe de ventas publicado por Nintendo, con fecha 30 de septiembre de 2019, refleja que Nintendo Switch lleva unas ventas acumuladas de 41,67 millones de unidades, una cifra que sin duda crecerá sensiblemente durante lo que le queda de vida comercial a esta consola.
Lapiz

Nintendo sabe que, a pesar del mal rendimiento comercial de Wii U, esta consola tiene un gran catálogo. Esta es la razón por la que está recuperando poco a poco sus mejores títulos e incorporándolos a la oferta de Switch. Juegos como Donkey Kong Country: Tropical Freeze, Bayonetta 2 o Mario Kart 8 (esta vez en edición Deluxe), entre otros, han salido, o lo harán próximamente, para esta última consola.

El debate, una vez que nos encontramos en este punto, reside en el hecho de que muchos usuarios de Switch celebran la llegada a la híbrida de estos juegos (sobre todo aquellos que no pudieron jugarlos en Wii U), mientras que otros defienden que esta decisión no hace otra cosa que devaluar el catálogo de la predecesora de Switch. Obviamente, cada uno tiene todo el derecho del mundo a adoptar la postura que le parece más razonable y a actuar en consecuencia, comprando estos juegos «recuperados» si le atraen, o mirando hacia otro lado si no le interesan.

La respuesta al fracaso: la creatividad

Todas las grandes decisiones que ha tomado Nintendo desde el lanzamiento de Wii han ido dirigidas a reforzar su posición como una empresa con vocación de ofrecer a sus clientes experiencias diferentes a las que les proponen sus competidores. Y les está funcionando de maravilla. Aunque, eso sí, el fracaso de Wii U les ha recordado lo importante que es que encuentren la forma de explicar a los usuarios cómo es la experiencia que les están proponiendo.

Y es que si creas algo nuevo, algo muy diferente a lo conocido, es imprescindible que sepas cómo explicárselo a aquellas personas que van a utilizarlo. De lo contrario corres el riesgo de que no lo entiendan, y el trastazo puede ser monumental. Nintendo dio en la diana a la hora de enseñarnos la experiencia que nos proponen Wii y Switch, especialmente gracias a unos vídeos muy inspirados que nos explicaban con claridad cómo utilizarlas y qué nos aportaban, pero fracasó con Wii U, algo que quedó patente poco después del lanzamiento de la consola.

Después de cada uno de sus fracasos Nintendo siempre ha apostado por la innovación, por buscar nuevas experiencias de juego. ¿El resultado? Wii, un éxito abrumador, y Switch, que apunta, de momento, muy alto

Miyamoto

No puedo dar por concluido este artículo sin dedicar unas líneas a dos de los principales adalides de la innovación en Nintendo: Shigeru Miyamoto y Satoru Iwata. El primero llegó a esta compañía en 1977, cuando aún estaba afianzando su posición en la industria de los arcade y los videojuegos. Y no tardó en dar muestras de su aplastante creatividad al crear personajes que forman parte de nuestro imaginario colectivo desde hace décadas, como Mario, Donkey Kong o Zelda, entre otros.

Actualmente Miyamoto sigue trabajando en Nintendo, pero ya no ocupa una posición en «la primera línea de fuego» diseñando, dirigiendo y produciendo muchos de los títulos con más tirón de la compañía. Ahora ejerce un cargo preeminente en el que actúa como consejero y asesor, supervisando los proyectos de la compañía, pero desde una posición más elevada que le permite no estar tan sumido en el día a día.

Iwata

Otro de los grandes motores de la creatividad en Nintendo fue, como os anticipé antes, el tristemente desaparecido Satoru Iwata. Su relación con Nintendo comenzó en 1980, cuando aún trabajaba en HAL Laboratory. No tardó en destacar como el ingeniero de software genial que era, capaz de depurar él solo el código de un videojuego de la época en mucho menos tiempo que el resto de sus compañeros.

Pero la faceta por la que ha pasado a la historia de la compañía no es otra que su inventiva, su intuición, sus ideas innovadoras, y, en ocasiones, incluso revolucionarias, que fueron las que estimularon al clan Yamauchi a cederle la presidencia de Nintendo. De hecho, hasta ese momento fue la única persona capaz de llegar a la posición más alta de la cúpula directiva sin formar parte de la familia fundadora de la empresa.

Iwata es en gran medida responsable de la innovación no solo de consolas como Wii, Nintendo 3DS o Wii U, sino también de Switch, una consola cuyas líneas maestras dejó definidas antes de fallecer prematuramente por culpa de una grave enfermedad. En gran medida Nintendo ocupa la posición que ostenta actualmente gracias a Satoru Iwata, algo que han reconocido abiertamente muchas de las personas que pudieron trabajar con él.

Reggie

En cualquier caso, la entidad de figuras como Miyamoto, Yokoi o Iwata no debe ocultar la importancia de otras personas que también han contribuido de una forma esencial a hacer de Nintendo lo que es hoy en día. Como Eiji Aonuma, que actualmente es el máximo responsable de la saga Zelda. O Reggie Fils-Aimé, expresidente de la filial de Nintendo en Estados Unidos y artífice en gran medida del éxito que han cosechado las consolas de la firma en el continente americano.

O Yoshiaki Koizumi, que ha producido algunos de los mejores juegos de Nintendo, entre los que se encuentran varios títulos de las sagas Zelda y Mario. Todo parece indicar que, a pesar de la ausencia de Iwata y la implicación no tan directa en los desarrollos de la compañía de Miyamoto, Nintendo está en buenas manos. Esa es la ventaja de tener una buena cantera y figuras imponentes en las que inspirarse.

Imágenes | Eckhard Pecher | Evan-Amos | Jean-Frédéric | Alex Hansen | Takimata | Sergey Galyonkin

-
La noticia Estos son los tres fracasos más estrepitosos de Nintendo, y así fue como consiguió salir reforzada fue publicada originalmente en Xataka por Juan Carlos López .

Ver Noticia Completa

12

Disney + adelanta su fecha para España: llegará el próximo 24 de marzo con un precio de 6,99 euros mensuales

martes, 21 enero 2020 03:28:46

Disney + adelanta su fecha para España: llegará el próximo 24 de marzo con un precio de 6,99 euros mensuales

Disney ha hecho finalmente pública la fecha en la que llegará a la mayoría de los territorios europeos, y será antes de lo esperado: el 24 de marzo estará disponible en España, Reino Unido, Francia, Alemania, Italia, Austria, Suiza e Irlanda. El precio será de 6,99 euros al mes o 69,99 euros para la suscripción anual, lo que no supone una sorpresa, ya que es el mismo que en Holanda, donde el servicio ya estaba disponible. Hay algunos países como Bélgica, los países nórdicos y Portugal donde no llegará hasta verano de 2020.

Esta fecha definitiva supone un adelanto con respecto a la prevista inicialmente, que se estimaba una semana más tarde. Muy posiblemente, Disney+ ha estimado que el visionado pirata de series como 'The Mandalorian', una sensación internáutica global pese a que solo estaba disponible en Estados Unidos, estaba dañando sus cuentas. Ahora será posible acceder a la serie y a todos sus contenidos de forma legal dentro de unos meses.

disneyplus

Aún no se ha hecho público un listado completo de contenidos, pero en la web que ha lanzado Disney y la comunicación oficial de la compañía se destacan algunos de ellos: por supuesto, Marvel, 'Star Wars' y animación Disney y Pixar, pero también National Geographic. Y también muchos de los contenidos exclusivos de la plataforma, como 'La dama y el vagabundo', la nueva encarnación de 'High School Musical', 'El mundo según Jeff Goldblum', 'Vuelta al escenario', 'Diario de una futura presidenta o 'The Imagineering Story', el documental sobre la historia de los Parques Disney.

Cuatro pantallas simultáneas y descarga para diez dispositivos

Una de las grandes dudas que flotaba en torno al servicio era el número de pantallas simultáneas que permitiría, ya que se rumoreó que las grandes plataformas de streaming pensaban limitar esta posibilidad. Finalmente se sabe que se permitirán hasta cuatro pantallas a la vez en consolas de videojuegos, streaming y smart TVs. A su vez, existirá también la posibilidad de descargar de forma ilimitada en diez dispositivos.

Disney+ da también la posibilidad de configurar hasta siete perfiles de usuario distintos y establecer controles parentales. La gran cantidad de perfiles es una buena jugada de Disney para que cada miembro de la familia, incluso los más pequeños, tengan sus propias listas de visionado y favoritos.

-
La noticia Disney + adelanta su fecha para España: llegará el próximo 24 de marzo con un precio de 6,99 euros mensuales fue publicada originalmente en Xataka por John Tones .

Ver Noticia Completa

13

Estos mosquitos están modificados genéticamente para resistir los cuatro serotipos del virus dengue y evitar así su propagación

martes, 21 enero 2020 02:00:32

Estos mosquitos están modificados genéticamente para resistir los cuatro serotipos del virus dengue y evitar así su propagación

El mosquito, posiblemente el insecto más odiado por la humanidad. No solo por las molestas picaduras sino especialmente por el papel que juega a la hora de propagar enfermedades. Cada año se lleva millones de vidas y de momento no hemos encontrado una forma de ser inmunes a las picaduras del mosquito, quizás sea hora de hacer al mosquito inmune ante los virus que transfiere.

El zika o el dengue son algunas de las enfermedades más comunes que transportan algunos tipos de mosquito (esto es relevante, ya que la mayoría de mosquitos no transfieren enfermedades). Las estrategias convencionales de control de enfermedades transmitidas por mosquitos pasan por eliminar aguas estancadas donde se reproducen, fumigar con insecticidas o proteger a las personas con cremas, sprays y mosquiteros. Por haber hay hasta tanques que disparan rayos láser contra mosquitos. Pero no ha sido suficiente para evitar la propagación de los viruses.

El dengue es una de las enfermedades que más urge evitar su propagación. Una primera infección en humanos generalmente implica fiebre, erupciones cutáneas y algún que otro dolor. Sin embargo, el problema llega cuando hay una segunda infección con un serotipo distinto del virus, en tal caso se pueden dar síntomas más graves y hasta síntomas mortales.

Ed273168 Cbd9 46fa 9dda 734d8d15eab8 Aedes aegypti, el mosquito transmisor de enfermedades.

El anticuerpo que repele los cuatro serotipos de dengue

Una estrategia que se ha seguido en los últimos años es modificar o ayudar al mosquito a evitar que se contagie. Conocemos una bacteria llamada Wolbachia que puede bloquear el virus. Liberando mosquitos con esta bacteria ha permitido reducir de forma considerable la propagación. El proceso consiste en insertar la bacteria en cientos, miles y millones de mosquitos macho esterilizados para después soltarlos en naturaleza. Al estar esterilizados no surgen descendientes, por lo que se reduce drásticamente la población de mosquitos.

Esto sin embargo no consigue acabar con el virus y a pesar de que se han realizado diferentes modificaciones en los mosquitos, ninguna de ella es inmune a las diferente variaciones del virus. En 20113 sin embargo unos investigadores descubrieron que una persona infectada varias veces por el dengue fue capaz de desarrollar un anticuerpo nuevo. Este anticuerpo consigue combatir los cuatro serotipos del virus dengue que se conocen.

Debido a que los mosquitos no producen anticuerpos lo que hay que hacer es insertarles este anticuerpo. Bueno, una variación del anticuerpo más simple que sea aceptada por el mosquito. Si el mosquito tiene el anticuerpo, a pesar de que bebe sangre infectada con el virus, este no pasa a la saliva del mosquito, que es la vía mediante la cual se infecta al humano.

Omar Omar Akbar, biólogo molecular de la Universidad de California San Digo, con los mosquitos modificados genéticamente.

El biólogo molecular Omar Akbari de la Universidad de California San Digo ha desarrollado junto a su equipo el gen con el anticuerpo. Tras inyectárselo a los embriones de mosquitos Aedes aegypti (la variante de mosquito transmisor de este tipo de enfermedades) esperaron a que nacieran y se reprodujeran para darles sangre infectada. Al beberla y entrar el virus en el intestino del insecto se activa el anticuerpo. Los científicos probaron con sangre infectada por los cuatro serotipos de virus dengue y en ninguna de las ocasiones la saliva del mosquito contenía el virus.

En el laboratorio los resultados son prometedores, además han podido aparearlos y que estos generen descendencia también inmune al virus. Los investigadores explican que el mosquito modificado crece un poco más lento y que las hembras tienen una vida algo más corta, pero creen que también se puede dar por las condiciones en el laboratorio.

¿El próximo paso? Soltar estos mosquitos en naturaleza y esperar a que crezcan generaciones "sanas" es tentador, pero antes hay que hacer más pruebas para asegurarse de que el anticuerpo es estable en el mosquito y sobre todo que el virus no muta rápidamente para combatir este anticuerpo. De llevarse a cabo con éxito este plan, los científicos esperan poder insertar anticuerpos similares en los mosquitos para acabar con otras enfermedades como el zika.

Vía | Science Daily
Más información | UC San Diego News Center

-
La noticia Estos mosquitos están modificados genéticamente para resistir los cuatro serotipos del virus dengue y evitar así su propagación fue publicada originalmente en Xataka por Cristian Rus .

Ver Noticia Completa

14

El último smartwatch de Garmin presume de privacidad nivel militar: trae hasta un modo "autodestrucción" para borrar sus datos

lunes, 20 enero 2020 18:44:28

El último smartwatch de Garmin presume de privacidad nivel militar: trae hasta un modo

Mientras que el Apple Watch, las pulseras de Xiaomi o los relojes de Fitbit son algunos de los productos más populares en el mercado de consumo general, Garmin se ha enfocado en nichos concretos. Los deportistas y atletas de alto nivel son por ejemplo uno de los objetivos de la marca, pero también usuarios mucho más peculiares como pilotos de avión y militares. Precisamente a ellos va destinado el último smartwatch de la marca, pensado para usarse en situaciones extremas y con funciones de privacidad mucho mayores a las encontradas en un smartwatch normal y corriente.

Garmin ha presentado su nuevo Garmin tactix Delta. A primera vista no difiere mucho de otros relojes inteligentes de Garmin. Destaca por una pantalla circular, suficiente grosor y en general un diseño más utilitario que estético. Sin embargo hay mucho más: materiales resistentes, multitud de sensores y funciones de software centradas en preservar la privacidad del usuario.

Garmin tactix Delta

Certificación militar MIL-STD-810 y autonomía entre 21 y 80 días

Según indica Garmin, el nuevo Garmin tactix Delta cumple con el estándar militar MIL-STD-810. Esto significa que ha superado una serie de pruebas en condiciones extremas que generalmente el usuario común no va a encontrar en su día a día. El reloj ha tenido que salir inmune de pruebas a en temperaturas altas, exposición a materiales corrosivos, presiones altas y bajas, cambios drásticos de temperatura y por supuesto resistencia al agua, entre otras pruebas. Para hacer frente a esto el Garmin tactix Delta trae una pantalla de zafiro y está construido en acero inoxidable recubierto de distintos materiales para mejorar su resistencia.

El reloj también cuenta con funciones de software pensadas para actividades que suelen salirse de lo habitual. Por ejemplo, cuenta con un modo de visión nocturna que permite leer la información de la pantalla con gafas de visión nocturna. También es capaz de calcular la altitud del usuario cuando salta en paracaídas. Múltiples modos para mostrar las coordenadas, navegación GPS/GLONASS/Galilep, sensores especiales como un barómetro o un altímetro... En definitiva, funciones para sacarle partido en deportes extremos o actividades prácticamente militares.

Garmin tactix Delta

En cuanto a la autonomía, Garmin promete hasta 21 días en modo smartwatch y hasta 80 días en modo reloj con ahorro de batería máximo. Entre estos dos modos se puede configurar diferentes niveles desactivando más o menos funciones y sensores. En todo momentos e le mostrará al usuario cómo repercute en la autonomía usar o no algún modo del reloj.

Un modo sigilo que no recopila absolutamente nada y opción para autodestruir toda la información

Más interesante aún es el enfoque hacia la privacidad que ha puesto Garmin con este nuevo reloj inteligente. El Garmin tactix Delta dispone de una función de sigilo que desactiva cualquier tipo de recopilación de datos y comunicación. No rastrea la ubicación del usuario y tampoco se comunica de forma inalámbrica con el smartphone u otros equipos, porque prácticamente desactiva toda antena de comunicación con el exterior.

Garmin tactix Delta

Además del modo sigilo también cuenta con una función de autodestrucción. El usuario puede configurar una combinación de botones que al ser pulsada resetea todo el reloj eliminando por completo los datos que hay almacenados en él. Al pulsar esta combinación de teclas aparece un temporizador en el reloj y tras acabarse el tiempo comienza el borrado y reinicio del reloj. "Puede encontrar esta opción útil si trabaja en una posición donde los datos guardados en su reloj podrían considerarse confidenciales" indica Garmin.

El nuevo Garmin tactix Delta ya se puede adquirir por un precio de 899,99 euros. El reloj únicamente está disponible en un color y tampoco hay diferentes tamaños como ocurre en otros relojes inteligentes. Alcanza un precio mayor al de la mayoría de relojes inteligentes del mercado, en parte justificado por las características que trae. Ahora bien, falta ver qué cantidad de usuarios requieren de un reloj con dichas características siendo un nicho tan concreto al que se ha enfocado Garmin con el nuevo Garmin tactix Delta.

Más información | Garmin

-
La noticia El último smartwatch de Garmin presume de privacidad nivel militar: trae hasta un modo "autodestrucción" para borrar sus datos fue publicada originalmente en Xataka por Cristian Rus .

Ver Noticia Completa

15

China, uno de los mayores consumidores de plásticos del mundo, prohibirá los desechables a finales de este año

lunes, 20 enero 2020 16:30:26

China, uno de los mayores consumidores de plásticos del mundo, prohibirá los desechables a finales de este año

El plástico ha pasado de ser uno de los mayores aliados del ser humano a convertirse en uno de sus mayores enemigos. Su presencia en el medio ambiente se puede prolongar durante décadas si no se recicla y esto se agrava aún más con los desechables, que tienen un uso mucho menor y acaban antes fuera de uso. Hay tanto plástico que literalmente está lloviendo plástico. Reducir su uso parece ser una de las únicas soluciones viables.

Diferentes medidas en diferentes regiones del mundo se han tomado a lo largo de los últimos años, la Unión Europea por ejemplo prohibirá el uso de platos, cubiertos y vasos de plástico desechables para el año que viene. Y ahora, el mayor productor de estos plásticos y uno de los mayores consumidores, aplicará una prohibición similar. China prohibirá el uso de algunos plásticos desechables este mismo año y para 2025 reprimirá la mayoría de ellos.

s

Una eliminación gradual durante los próximos años

El Gobierno de China ha anunciado un nuevo plan para reducir la contaminación por plásticos en todo el país. Es un plan a largo plazo que comenzará a aplicarse a finales de este año y se encuentra definido hasta 2025. En un comunicado el realizado por la Comisión Nacional de Desarrollo y Reforma de China (NDRC) se explica cómo el uso y la producción de un gran número de productos de plástico de un solo uso se eliminarán paulatinamente durante estos años.

China es enorme, por lo que el gobierno local está planteando realizar esta disminución de uso de plásticos desechables por regiones y en etapas. Por ejemplo, se exigirá más a zonas industrializadas y ciudades que a áreas rurales, donde tendrán algo más de tiempo y flexibilidad para adaptarse al cambio. En cualquier caso el primer paso se dará a finales de este año, cuando la industria de la restauración ya no podrá usar cubiertos de plástico en las ciudades. Las pajitas de plástico por otra parte si no son degradables directamente verán su fin este mismo año en todo el país.

Plásticos desechables

Se espera que para finales de 2025 se aplique en todas las normas en todo el país. Para entonces las bolsas de plástico ya no podrán usarse y hasta los hoteles tendrán prohibido dispensar productos de un solo uso que sean de plástico. Las normas incluyen también la prohibición de envío de paquetes y mensajería en envoltorios de plástico por ejemplo.

El impacto de China en la industria del plástico

China produce casi un tercio de los productos plásticos de todo el mundo. Es el mayor fabricante de este tipo de productos y también es donde encontramos algunas de la zonas de mayor consumo de plástico a nivel mundial. Según una investigación del Foro Económico Mundial, el río Yangtsé es el que más plásticos transporta a los océanos en todo el mundo.

Echar la culpa a China de todo esto sería inapropiado, gran parte de estos plásticos que producen acaban en mercados occidentales. Por otro lado, hasta hace poco un porcentaje de la contaminación por plásticos en la naturaleza que generaba China era por plásticos provenientes de Occidente. En 2018 China anunció que dejaban de aceptar residuos plásticos de otros países para su reciclaje alegando preocupaciones medioambientales para el país.

Vía | NYT
Imagen | @sagar_fotography, @angelacompagone y @bunningmendoza

-
La noticia China, uno de los mayores consumidores de plásticos del mundo, prohibirá los desechables a finales de este año fue publicada originalmente en Xataka por Cristian Rus .

Ver Noticia Completa