Tecno

Tecnología en Gral

El problema de trasladar los filtros de Internet al mundo real: así puede cambiar nuestras ciudades la inteligencia artificial

650_1200

Esto no va a sorprender a nadie: los atascos son un problema descomunal El tráfico costó 160.000 millones de dólares solo en EEUU. 42 horas de viaje más y 960 dólares de combustible extra por cada persona que va al trabajo en coche. Muchos grupos de investigación están tratando de usar la tecnología disponible para solucionarlo y algunos están muy cerca de conseguirlo. Sin embargo, los enfoques actuales para resolver el problema del tráfico tienen consecuencias. Casi al contrario: pueden acabar trasladando los problemas de Internet a la vida real. "Si no conduces por la ruta óptima, estás produciendo atascos" Aunque los estudios sobre el tráfico han dado por sentado que los conductores son muy racionales y eligen la mejor ruta para ahorrar tiempo y dinero, hasta que Marta González y Antonio Lima lo investigaron a fondo no sabíamos si era cierto. La idea de que somos conductores racionales parece razonable, pero no es cierta en absoluto Durante varios años han estudiado el comportamiento de un buen número de conductores en cuatro ciudades europeas distintas y han descubierto, que aunque la hipótesis del conductor racional parece razonable, no es cierta. La mayoría de los conductores tienen una serie de rutas favoritas que usan sí o sí independientemente de lo optimizadas que estén para donde quieren ir. "Nuestro datos aportan pruebas empíricas de que los conductores no siguen la ruta ideal", dicen estos investigadores. Las causas son muy variadas. Sabemos que, a la hora de elegir una ruta, la gente suele elegir las que van hacia el sur, las que tienen menos curvas o las que están más cerca de ciertos puntos de referencia. La idea central de estos investigadores es que esta es la causa principal de los atascos. Las pequeñas deficiencias que se generan por nuestra mala elección de rutas, se acumulan generando embotellamientos, tráfico denso y desesperación matutina. La solución puede venir de usar tecnologías que ya tenemos: navegadores y GPS Y para solucionarlo proponen usar algo que ya tenemos a nuestra disposición: las aplicaciones de navegación y los GPS. Al fin y al cabo, como ellos mismos señalan, aplicaciones como Waze ya han tenido un gran éxito a la hora de cambiar los hábitos de conducción de los conductores. Parece un plan ideal: si seguimos las instrucciones de estas aplicaciones podríamos conseguir no solo llegar antes, sino gastar menos dinero y, previsiblemente, reducir las emisiones de CO2. Sin lugar a dudas, esto sería una forma muy potente de cambiar la movilidad de nuestras ciudades. La burbuja de filtros se hace cada vez más real Cuando Eli Pariser comenzó a hablar de la "burbuja de filtros" ('filter bubble') la idea era extraña, pero familiar. Con el tiempo, ha encajado perfectamente en la experiencia que, durante estos años, hemos tenido del mundo. Hoy, en la red, parece evidente que vivimos en "un ecosistema personal de información que ha sido provisto por algoritmos" y que está específicamente diseñado para que encaje con nosotros. Se trata de la idea de que "saber que una ardilla muere en tu jardín puede ser más relevante para tus intereses que saber que muere gente en África". Y, sobre todo, de nuestros problemas para combinar esa apología de la información personalizada con la certeza de que "un mundo construido desde lo familiar es un mundo donde no hay nada que aprender" ¿Puede saltar al mundo real ese enorme parque de atracciones personalizado que estamos construyendo en Internet? Es decir, el precio de vivir en un mundo más cómodo, más interesante, más eficiente (un mundo en el que cientos de algoritmos se desviven por nosotros) es paradójicamente vivir exactamente en el mundo en el que nos gustaría vivir. Un enorme parque de atracciones dedicado a nosotros mismos que, como no está de más recordar de vez en cuando, no solo nos hace más pobres sino que nos enfrenta a problemas sociales que aún no sabemos resolver. Una ciudad llena de filtro Por eso, es prudente que nos preguntemos si la popularización del uso de aplicaciones de navegación está trasladando (o puede trasladar) esos filtros a la vida real. El primer paso, como sugerían los investigadores, será optimizar rutas por tiempo, consumo o kilómetros adaptándolas a la situación del tráfico y la demanda de espacio por el que circular; pero pronto la misma lógica que organiza internet, organizará el diseño y optimización de rutas. Es más, es algo que llevamos años buscando y que ya hemos empezado a ver. Ya conocemos el problema, dejar que se reproduzca sería una oportunidad perdida Aquí en Xataka hemos hablado mucho sobre como los algoritmos reproducen con precisión sorprendente los problemas sociales del entorno donde se desarrollan. Tenemos casos muy llamativos (e incluso un capítulo de The Good Wife) sobre cómo el mundo de los mapas no es ajeno a esto. No es descabellado pensar, que si nos fijamos solo en la eficiencia, como suele ocurrir, acabemos reforzando con estos algoritmos la existencia de barrios marginales o creando "distintas ciudades" socialmente aisladas que conviven en el mismo espacio, pero no se tocan. Como siempre recordamos al hablar de filtros, las burbujas y segregación social siempre han estado ahí. La cuestión es si usamos la tecnología para resolverlos o para invisibilizarlos. Quién iba a decir que cosas como decidir la ruta para ir al supermercado podían ser parte del problema o parte de la solución. Imágenes | César, nakagawaPROOF También te recomendamos ¿Cambiaría algo el hecho de que pudiéramos predecir los terremotos? Los distintos tipos de Yoga: así te ayuda cada uno de ellos ¿Cómo podemos saber que un tiburón tiene 400 años? - La noticia El problema de trasladar los filtros de Internet al mundo real: así puede cambiar nuestras ciudades la inteligencia artificial fue publicada originalmente en Xataka por Javier Jiménez .

Leer más »

Así de alucinante y divertido era el escritorio Linux hace 10 años

650_1200

Hace algo más de diez años el mundo Linux nos sorprendía con una arquitectura gráfica que basándose en las librerías OpenGL ofrecía un entorno de escritorio en el que todo eran efectos especiales. Se trataba de Xgl, un desarrollo que acabó formando parte de gestores de composición como Compiz o Beryl. Aquellos desarrollos acabaron formando parte de los escritorios de muchos linuxeros y la fiebre por los efectos de escritorio se propagó. Las ventanas "gelatinosas" se unieron a efectos que permitían gestionar escritorios virtuales de una forma potente pero, sobre todo, divertida. Puede que en la práctica esos escritorios no aportaran mucho, pero visualmente el resultado era impresionante. ¿Dónde han quedado esos efectos? Cuando el escritorio era divertido Un pequeño hilo de discusión en Reddit nos recordaba a muchos linuxeros esa etapa en la que tener un acuario a nuestro alcance cuando cambiábamos de escritorio virtual era algo de lo más normal. Las animaciones de aparición y desaparición de ventanas eran igualmente sorprendentes, pudiendo contar con efectos que simulaban que las ventanas se incendiaban, explotaban o se minimizaban como "absorbidas" por la lámpara de Aladino. Novell reinventó el escritorio en 2006, y aquello hizo que de repente Linux fuese mucho más atractivo para el usuario final. Esos efectos fueron creciendo de forma asombrosa con contribuciones de usuarios que acabaron creando más y más animaciones que hacían que mover ventanas o activar el gestor de tareas —que originalmente ya era sorprendente al mostrar un cubo con los escritorios virtuales— se volviera más y más impactante visualmente. Fuente: Wikipedia El proyecto, no obstante, acabó perdiendo relevancia en favor de entornos de escritorio que descartaron esa parte más efectista para centrarse en la usabilidad. GNOME, KDE, Xfce y otros algo más recientes como Unity (que seguirá en desarrollo pese al anuncio de Canonical), MATE o Cinnamon han acabado convenciendo a los usuarios de diversas distribuciones Linux. Fuente: Wikipedia Lo cual no impide que Compiz no siga vivo. La última versión disponible (Compiz 0.0.13.0) disponible en el sitio oficial del proyecto se actualizó en julio del año pasado, y es posible seguir usando este tipo de desarrollo en muchas distribuciones. Algunas como Fedora disponen de un versión específica (un "Spin", como lo denominan los responsables del proyecto) basada en MATE y Compiz que podéis descargar para probar en vuestros equipos. Vía | RedditEn Genbeta | Compiz Desktop Environment: ¿es posible? También te recomendamos El Librem 11 es un tablet convertible que quiere proteger tu libertad y tu privacidad Los distintos tipos de Yoga: así te ayuda cada uno de ellos Arduino es al fin compatible y fácil de usar en las Raspberry Pi y otros miniPCs ARM - La noticia Así de alucinante y divertido era el escritorio Linux hace 10 años fue publicada originalmente en Xataka por Javier Pastor .

Leer más »

¿Agua potable por suscripción? Esta es la idea de Reefill para sustituir al agua embotellada

650_1200

El agua corriente que sale de nuestros grifos tiene una calidad que depende mucho de la región en la que nos encontremos, pero para un sector de la población ese agua no es suficientemente buena y acaban comprando agua embotellada para llevarla de un lado a otro. Eso es lo que pretende solucionar Reefill, una startup de Nueva York que ha creado un sistema de filtrado para que podamos rellenar una botella reutilizable en una red de surtidores de la firma. El proyecto se está lanzando a través de una campaña de financiación colectiva en Indiegogo, y la idea es clara: no más agua embotellada (a no ser que sea estrictamente necesario). Suscripción a fuentes de agua filtrada Los responsables de este proyecto indican que "Reefill proporciona al cliente un producto de idéntica calidad y comodidad que el agua embotellada, pero sin los residuos y el alto coste". El sistema debutará en pequeños comercios y en restaurantes de comida rápida en Nueva York, donde se creará una "red de fuentes Reefill" en la que los usuarios podrán llenar sus botellas con este agua filtrada pagando una suscripción de 1,99 dólares al mes. De momento el servicio está pensado solo para la ciudad de Nueva York, pero puede que la idea se "exporte" a otras ciudades o por otras empresas. Este sistema es interesante porque informa a los comercios de sitios interesantes para instalar estos "puntos de llenado" de agua filtrada, pero también porque esos comercios evitan así que los clientes pidan un vaso de agua por las buenas. La idea partió de uno de los fundadores de la empresa, que no encontraba ningún sitio para rellenar su botella reutilizable en un paseo por la ciudad. Vía | TechCrunchMás información | Reefill en IndiegogoEn Xataka | Una defensa del agua del grifo: por qué debemos acabar con el agua embotellada También te recomendamos Los distintos tipos de Yoga: así te ayuda cada uno de ellos 225 litros de orina en cada piscina olímpica: la ciencia acaba de revelar algo que seguramente no queríamos saber Nueva York ya se prepara para su nuevo metro con WiFi, puertos USB y pantallas digitales - La noticia ¿Agua potable por suscripción? Esta es la idea de Reefill para sustituir al agua embotellada fue publicada originalmente en Xataka por Javier Pastor .

Leer más »

El doble de supercargadores Tesla en 2017: éstos son los 14 nuevos en España y 13 en México

1024_2000

Para que los coches eléctricos puedan ser un producto con más demanda es esencial que haya disponibilidad de estaciones de carga y esto Elon Musk lo saben muy bien. Ahora Tesla ha anunciado que doblará la red de supercargadores Tesla hasta llegar a más de 10.000. Así, partiendo de los 5.000 supercargadores que ya existen en distintos países más allá de Estados Unidos, ahora la compañía anuncia la ampliación de la red de estas estaciones así como la de conectores, prometiendo que quedará un total de 15.000 de éstos en todo el mundo. Esta ampliación llegará tanto América como a Asia y Europa. Que no falte la carga rápida Como titulan el comunicado que han emitido para el anuncio, para Tesla la prioridad es la carga y buscan que sus usuarios puedan cargar cuando quieran y de una manera rápida. Si bien Norteamérica recibirá una buena ampliación con un 150% más de cargadores, en el mapa interactivo de Tesla podemos ver que los nuevos cargadores y estaciones (están en color gris) se instalarán en muchas localizaciones. Si vemos por ejemplo España y México, países que en la actualidad tienen diez estaciones de supercargadores en el primero y dos en el segundo, la ampliación será bastante notable si se cumple lo planificado, dado que veremos 14 más en España y 13 más en México. Tenéis algo más de información sobre las localizaciones en el post de Xataka México. Como hemos dicho al inicio, será una operación que pretende finalizarse este mismo año quedando una red de 10.000 supercargadores y 15.000 puntos de carga en total. De este modo, Tesla quiere asegurar que los actuales propietarios de uno de sus coches (más de 200.000 según el fabricante) no tengan problemas para encontrar un punto de carga y lanzar un mensaje de seguridad a este respecto a los futuros compradores y propietarios, lo cual llega meses después de después de cambiar su política de la carga gratuita. Más información | TeslaEn Xataka | Tesla deja de dar gratis la recarga del coche en estaciones "Superchargers" También te recomendamos Si compras un Tesla hoy ya no tendrás acceso a la recarga gratuita e ilimitada de los Superchargers La tercera generación de Supercargadores Tesla subirá de los 350kW, será independiente de la red eléctrica Los distintos tipos de Yoga: así te ayuda cada uno de ellos - La noticia El doble de supercargadores Tesla en 2017: éstos son los 14 nuevos en España y 13 en México fue publicada originalmente en Xataka por Anna Martí .

Leer más »

Wikitribune es el periódico de Wikipedia que quiere solucionar el problema de las noticias falsas

650_1200

Jimmy Wales, fundador de Wikipedia, ha creado un nuevo proyecto llamado Wikitribune. Esta publicación tiene como objetivo combatir las noticias falsas y hacerlo a través de un equipo de periodistas profesionales y, cómo no, a través de la colaboración de los lectores que se convertirán en editores y sobre todo "verificadores" de que lo que se publica allí no es una noticia falsa. Wikitribune se lanza como proyecto con financiación colectiva, y en cada noticia se compartirán todos los recursos y fuentes con las que se han elaborado esos artículos. El objetivo: que todos puedan ayudar a comprobar que lo que se cuenta es la verdad, sin aditivos ni conservantes. El modelo de la Wikipedia quiere exportarse a la actualidad informativa Jimmy Wales indicaba en una entrevista que "la gente sigue estando sedienta de información de calidad", y este proyecto se iniciará con un equipo de 10 periodistas profesionales que trabajarán como punta de lanza de un proyecto que como ocurre con la Wikipedia se nutrirá de la ayuda de la comunidad de lectores y editores independientes. Cualquier lector podrá sugerir cambios a un artículo, pero esos cambios tendrán que ser aprobados por un miembro de la plantilla o alguno de los voluntarios que acaben teniendo reputación suficiente para validar esos cambios. Otra de las señas de identidad de Wikitribune será la ausencia de publicidad. Wales afirma que eso permitirá que "no haya nadie que dependa de los clics para atraer a los anunciantes", y tampoco habrá muros de pago que limiten el acceso. Para potenciar los ingresos, eso sí, habrá suscripciones mensuales que permitirán que los suscriptores influyan en los temas que se tratan y a los que se dedican reportajes especiales. Esos artículos, como el resto, estarán sujetos a esa labor contínua de verificación de hechos (fact-checking) que será el pilar fundamental de la publicación. Queda por ver si el modelo de la Wikipedia puede efectivamente servir para luchar contra uno de los últimos grandes males de esta era de la información. Vía | Niemann LabEn Xataka | Facebook, noticias falsas y el debate sobre la sabiduría de las masas También te recomendamos Cuando Google posiciona a negacionistas en búsquedas sobre el Holocausto, tenemos un grave problema El jefazo de Acer se marcha Los distintos tipos de Yoga: así te ayuda cada uno de ellos - La noticia Wikitribune es el periódico de Wikipedia que quiere solucionar el problema de las noticias falsas fue publicada originalmente en Xataka por Javier Pastor .

Leer más »

Guía de compra de robots aspiradores: qué mirar antes de comprar y los modelos más interesantes del mercado

650_1200

¿Os acordáis del primer Roomba que salió a la venta en 2002? Ya ha llovido bastante desde aquel primer robot y el mercado de los robots aspiradores ha tenido más de una década para evolucionar. Durante los últimos años hemos podido ver un par de tendencias remarcables: por un lado Roomba ha perdido la hegemonía del mercado, que se ha fragmentado con la aparición de nuevos competidores; y, por otro lado, se han empezado a aplicar nuevas tecnologías más vigentes y punteras. Así, actualmente estamos ante un mercado competitivo, ágil y con muchos actores. Gracias a esto hemos visto cómo en poco tiempo la eficacia y validez de los robots aspiradores ha ido en aumento, pues ahora son más avanzados, eficaces e incluso baratos. Pero, por otro lado, hacerse con uno de ellos se ha vuelto un proceso más complicado de lo que era antes. ¿Cuáles son las características más importantes a tener en cuenta? ¿Cuáles son las marcas a considerar? Para responder a estas preguntas y dar unas pautas básicas para el consumidor, te traemos esta guía. Características que debes tener en cuenta Anatomía de los cepillos Aunque parezca algo básico, es un punto importante. Generalmente nos encontramos con dos tipos de robots aspiradores: los que tienen cepillo rotatorio central y los que no (y, en su lugar, encontramos la boquilla de aspiración). Robots aspiradores con cepillo rotatorio central: Son preferibles en caso de alfombras y moquetas, pues consiguen cepillar las fibras y sacar más suciedad. Además, para la limpieza de superficies duras, son ligeramente más efectivos al cepillar suavemente el suelo. En estos casos, la boquilla de aspiración es toda la apertura que contiene el cepillo central. El Xiaomi Mi Vacuum es un ejemplo de robot aspirador con cepillo rotatorio central Robots aspiradores sin cepillo rotatorio central: Al no disponer de cepillo central, se limitan únicamente a aspirar a través de la boquilla, sin la parte de cepillado. Sin embargo, estos tipos de robots aspiradores tienen una ventaja principal: los pelos largos no se enredan en el cepillo rotatorio central. Aunque sacar los pelos del cepillo rotatorio central no es un proceso demasiado engorroso, sí que es un mantenimiento adicional que tendremos que hacerle al robot cada cierto tiempo. El iLife V5 incluye dos cepillos laterales y una boquilla de aspiración Capacidad de succión Generalmente medida en pascales (Pa), se trata de una medida que cuantifica la potencia de succión de un robot. En realidad mide la presión negativa que es capaz de generar su motor a través de la succión. Generalmente es un dato que cada marca facilita, por lo que resulta difícil saber la capacidad de succión real de cada modelo. Algunas marcas como Roomba nunca especifican la capacidad de succión de sus robots. Sensores, mapeado y sistema de navegación Aquí es donde llegamos a uno de los puntos más interesantes y que va a tener más implicaciones en el comportamiento del robot. Para hacerse una idea, los sensores van a actuar como si fueran los ojos del robot; el mapeado va a ser su cerebro procesando la información captada; y el sistema de navegación, su comportamiento a través de nuestro hogar. Los robots aspiradores más básicos acostumbran a utilizar sensores infrarrojos y sensores mecánicos. Con ellos pueden detectar obstáculos y desniveles a cortas distancias o bien durante el contacto (en el caso de los sensores mecánicos, alojados en el parachoques). Los modelos más avanzados incluyen sensores ultrasónicos (pequeños radares internos), cámaras gran angular o torretas láser que proyectan haces de luz para descubrir los obstáculos y mapear las estancias. Generalmente, en función del sistema de navegación, nos encontramos ante dos tipos de robots aspiradores: los que actúan únicamente basándose en decisiones tomadas en tiempo real y los que son capaces de reconocer el entorno y recordarlo —así como de tomar decisiones teniendo en cuenta dicha información almacenada. Algunos robots se pasean aleatoriamente por las habitaciones; otros, los más avanzados (y caros) las "mapean" y diseñan un recorrido óptimo Por ejemplo, los Roomba de las series 600, 700 y 800 entran en la primera categoría. Cuando se encuentran un obstáculo ejecutan la maniobra de esquiva o evasión predeterminada, pero no recuerdan la posición de dicho obstáculo, como tampoco la maniobra que han usado para sortearlo. Así, si el robot se vuelve a encontrar dicho obstáculo, es muy probable que actúe de la misma manera, creando pautas y "vicios" en sus comportamientos que le llevarán a repetir ciertos patrones ineficientemente. Fotografía de larga exposición que muestra los típicos patrones semi-aleatorios que trazan los robots que utilizan navegación en tiempo real. Bajo licencia CC: https://www.flickr.com/photos/13963375@N00/3533146556/ Para solucionar estos inconvenientes, algunas marcas han introducido ciertos mecanismos heurísticos en la aparente aleatoriedad de los sistemas de navegación en tiempo real. Por ejemplo, los robots aspiradores iLife, cuando encuentran un obstáculo, responden con maniobras evasivas distintas para no crear patrones repetitivos e ineficaces. En el otro extremo, encontramos los robots aspiradores capaces de reconocer el entorno mediante sus cámaras, sus sensores ultrasónicos y/o torretas láser. ¿Qué inconveniente tienen este tipo de robots? Como necesitan potentes procesadores para procesar imágenes y datos, su precio es sustancialmente más alto que los robots que toman decisiones en tiempo real. Este tipo de robots acostumbran a tener unos patrones de comportamiento ordenados, metódicos y matemático. Uno de los máximos exponentes de este grupo de robots puede ser el Xiaomi Mi Vacuum. Dicho robot incluye un sistema de navegación basado en sensores láser, ultrasónicos y de contacto, además de incluir un acelerómetro, un giroscopio, una brújula digital y un sensor de velocidad. Para poder procesar esta ingente cantidad de información, el robot aspirador de Xiaomi necesita tres procesadores dedicados. ¿En qué se traduce toda esta cantidad de tecnología? En un comportamiento de lo más ordenado y en capacidad de anticipación. Este tipo de robots aspiradores crean mapas casi perfectos de nuestro hogar y de los obstáculos que encuentran. Además, para tomar decisiones, tienen en cuenta toda la información almacenada del hogar. Programabilidad y conectividad Por programabilidad nos referimos a la posibilidad de dejar el robot listo para que él mismo empiece los ciclos de limpieza los días y horas que le especifiquemos. Es una característica bastante útil si pasamos una parte importante del día fuera del hogar y queremos evitar tener que escuchar el ruido del robot aspirador cuando estemos en casa. Actualmente casi la totalidad de robots aspiradores que podemos encontrar en el mercado son programables, a excepción de los Roomba 620 y anteriores y algún que otro modelo de gama baja. Recientemente han empezado a aparecer modelos de robots aspiradores con conectividad bluetooth y/o wifi. Aunque son características complementarias, permiten controlar el robot de forma remota a través de aplicaciones móviles, ver el estado de la limpieza o, en algunos modelos como los LG Hombot de la serie 12, videovigilancia del hogar a través de las cámaras que monta el robot. Filtros HEPA Como la programabilidad, se trata de una característica que cada vez se vuelve más universal y vemos como casi todos los nuevos modelos lo incluyen de serie. Sin embargo, aún se pueden encontrar varios robots aspiradores en el mercado que no incluyen filtros HEPA. ¿Qué son exactamente? Cuando un aspirador succiona aire, tiene que filtrarlo y expulsarlo posteriormente. Para poder hacer un filtrado adecuado del aire, se precisan filtros de alta eficiencia. De no ser así, el aspirador no es capaz de filtrar adecuadamente las partículas de aire y acaba esparciendo pequeñas partículas microscópicas por el hogar --y dejando ese típico ambiente "pesado" que crean los aspiradores tradicionales. HEPA es un acrónimo que hace referencia a los filtros de aire capaces de filtrar las mencionadas partículas microscópicas de polvo. Es una característica muy recomendada, e imprescindible si tenemos algún alérgico en casa. Los filtros HEPA permiten filtrar y purificar el aire, siendo capaces de captar partículas de hasta 0,3 μm. Imagen bajo CC: https://es.wikipedia.org/wiki/HEPA#/media/File:HEPA_Filter_diagram_es.svg Autonomía y tiempo de carga Por autonomía entendemos el tiempo que puede estar funcionando un robot aspirador por ciclo de carga. Una autonomía estándar se sitúa entre los 100 y los 120 minutos. Esta es la autonomía aproximada que tienen, por ejemplo, los Roomba de las series 600, 700, 800 y 900; los iLife V7S y V5 Pro; los Conga de Cecotec, los Hombot Square de LG, etc. Aunque depende mucho del modelo y los fabricantes no acostumbran a dar esta información, esta autonomía le permite al robot limpiar de forma cómoda, aproximadamente, entre 80m² y 120m². Sin embargo, la autonomía de un robot no mantiene una relación proporcional con la superficie que éste será capaz de limpiar. Encontramos que factores como la velocidad del robot o su sistema de mapeo determinan considerablemente la superficie que es capaz de cubrir. Generalmente los robots con sistemas de mapeo son capaces de limpiar más superficie, por el simple hecho de que no pasan dos veces por un mismo lugar y sus algoritmos optimizan los patrones del robot. No por más autonomía un robot va a limpiar mejor: algunos tardan menos en limpiar toda la superficie porque sus trayectorias son más eficientes En el extremo de los robots con más autonomía vale la pena mencionar los Neato, como el modelo Botvac D5, capaz de limpiar más de 400m² por ciclo de carga. Neato, de hecho, destaca por ser una de las marcas en ofrecer más autonomía —y, además, es de las pocas que no tiene reparo en especificar la autonomía en m², un dato muy útil para el consumidor. Finalmente, el tiempo de carga estándar de la mayoría de robots de limpieza se sitúa entre las 2h y las 6h. ¿Robot aspirador, robot friegasuelos, robot mopa...? En los últimos años hemos visto aparecer todo un seguido de variantes de robots aspiradores, algunos de ellos teniendo una gran aceptación (y éxito) en el mercado. Así, actualmente encontramos 4 grandes tipologías de robots de limpieza: Robots —exclusivamente— aspiradores: No hace falta decir mucho de ellos. Simplemente aspiran. Robots friegasuelos: Si único representante es la gama Scooba de iRobot. Esparcen agua y detergente sobre el suelo, lo cepillan y posteriormente recogen y almacenan el agua sucia. Se trata de una tecnología poco desarrollada y tiene pocos adeptos. Robots mopa: Los más conocidos son los robots de la gama Braava de iRobot. Como su propio nombre indica, se dedican a pasar la mopa por el suelo. No aspiran ni recogen residuos (más allá de los que se pueden enganchar en su mopa), por lo que su eficacia es moderada. Robots híbridos: Se trata de robots aspiradores que son capaces de aspirar y pasar la mopa (seca o húmeda). En los últimos meses hemos podido apreciar cómo este tipo de robots aspiradores aumentaban sus ventas de forma exponencial. ¿Qué robot me recomendáis? Hasta ahora has visto algunas de las características más importantes a tener en cuenta si deseas hacerte con un robot de limpieza, pero es posible que más que ayudarte a decidir hayan añadido complejidad al proceso. Para ello te vamos a mostrar los robots más exitoso y recomendables por franjas de precio. El dinero que desees invertir en un robot aspirador, al fin y al cabo, acaba siendo el principal factor de peso. En su mayoría se trata de modelos que, además de ser recomendables por su relación calidad-precio, han tenido muy buena acogida en el mercado. Franja de los 150€ a los 300€ En este segmento de mercado nos encontramos únicamente con modelos que toman decisiones en tiempo real. Es decir, si este es tu presupuesto, olvídate de un robot aspirador que sea capaz de mapear tu hogar. Sin embargo ten presente que este no es un gran inconveniente y que los algoritmos semi-aleatorios de algunas marcas se han perfeccionado hasta llegar a ser bastante o muy eficientes. ILIFE V5 PRO Y V7S De izquierda a derecha, el iLife V7S y el iLife V5 Pro, dos de los robots híbridos de la marca china iLife. Unos de los robots más exitosos que podemos incluir en esta franja son los robots híbridos iLife. Por ejemplo, tenemos el V5 Pro (con un precio generalmente inferior a los 140-150€) y el v7S Pro (alrededor de 180€), que además hemos analizado. Sin embargo hay que tener en cuenta que estos robots se acostumbran a enviar desde China —Gearbest.com es uno de sus principales vendedores— por lo que muchas veces tenemos que sumar a su precio los derechos de importación y aduanas. Además, no disponen de servicio técnico nacional y la garantía que incluyen es de un año (y probablemente nos pedirán que enviemos el robot a China para repararlo). ROOMBA SERIE 600 El Roomba 612, uno de los modelos más básicos de iRobot. En esta misma franja de precio a veces podemos encontrar algunos de los modelos más básicos de Roomba, como el 605, el 612, o incluso el 616. Ninguno de ellos es programable, ni incluye filtros HEPA, además de ofrecer una eficacia bastante cuestionable. [Podemos encontrar el Roomba 612 por 289 euros y el Roomba 605 se puede encontrar también por debajo de los 300 euros. CONGA EXCELLENCE Y EXCELLENCE 990 El Conga Excellence 990, un robot híbrido capaz de aspirar y fregar con mopa húmeda de forma simultánea. Recientemente hemos visto cómo aparecía un fuerte competidor en este segmento de mercado: la marca española Cecotec con sus robots híbridos Conga Excellence y Conga Excellence 990. A grandes rasgos son robots híbridos parecidos a los iLife, pero incluyen mejoras como la posibilidad de aspirar y fregar de forma simultánea, mayor potencia de aspiración y algoritmos algo mejores. Además, al ser una marca española no nos encontramos con costes ocultos de aduanas y disponen de servicio técnico propio y de dos años de garantía. Franja de los 300€ a los 500€ Si tu presupuesto se encuentra en esta franja de precio la primera pregunta que deberías hacerte es si deseas un robot aspirador que tome decisiones en tiempo real o bien si quieres optar por un modelo capaz de mapear y reconocer el entorno (léase más metódico y ordenado en sus patrones de comportamiento). XIAOMI MI VACUUM El Xiaomi Mi Vacuum es una de los robots aspiradores tecnológicamente más avanzado del mercado. Si optas por esta última categoría tienes a tu disposición el robot aspirador de Xiaomi, el Xiaomi Mi Vacuum, que emplea una tecnología de navegación muy parecida a la de los coches autónomos de Google y es uno de los robots más ordenados, precisos y tecnológicos del mercado. Además, gracias al motor NIDEC brushless que monta, consigue tener una capacidad de succión envidiable: 1800 Pa. Sus principales comercializadores son Gearbest.com y Aliexpress.com, dónde lo podemos encontrar por precios que oscilan entre los 315€ y 360€. Sin duda es un precio terriblemente competitivo por un robot de estas características. NEATO XV ESSENTIAL Y BOTVAC D3 D301 El Neato Robotics Botvac D3 D301, un robot aspirador que cuenta con torreta láser para mapear el entorno. En esta franja también encontramos los modelos más básicos de Neato Robotics (un gran desconocido en España, pero popular en otros países como EEUU). Como el robot aspirador de Xiaomi, los Neato montan una torreta láser que proyecta haces de luz para mapear el entorno a la perfección. El Neato XV Essential puede encontrarse por poco más de 300€ y el Neato Botvac D3 D301 (con conectividad wifi) por unos 400€. HOMBOT SQUARE SERIES 7, 8, 9 Y 9+ En la imagen, el Hombot VR64701LVMP, uno de los robots más exitosos de LG. Por menos de 500€ también encontramos algunos modelos de LG como los Hombot Square de las series 7, 8, 9 y 9+. Aunque son robots aspiradores capaces de mapear el entorno, lo hacen a través de una cámara gran angular montada en su parte superior. Esto implica que sea un mapeo más rudimentario e impreciso, pues se basa en el procesamiento de imágenes y no en medios más exactos como pueden ser el láser o los ultrasonidos. Aún así, los Hombot de LG ostentan un comportamiento bastante ordenado. El LG Hombot VSR6600OB (Serie 7) puede encontrarse por 441 euros y el LG Hombot VR8602RR (Serie 9) por 541 euros. ROOMBA SERIES 600, 700 Y 800 El Roomba 865, aunque no es capaz de mapear el entorno, ofrece ciertas mejoras respecto los modelos inferiores, como la tecnología Aeroforce. Finalmente encontramos los Roomba de las series 600, 700 y 800. Cabe decir que ninguno de los modelos de estas series es capaz de mapear el entorno y todos ellos ofrecen navegación en tiempo real. Los modelos de las series 600 y 700 no son demasiado recomendables desde que han aparecido nuevos competidores capaces de ofrecer prestaciones iguales (o mejores) o un precio más competitivo. Sin embargo los Roomba de la serie 800, aún ofreciendo navegación en tiempo real y patrones bastante aleatorios, disponen de cepillos rotatorios centrales de goma (para disminuir los enredos de pelos) y han aumentado su capacidad de succión —que sigue siendo desconocida— con la inclusión de una tecnología bautizada como Aeroforce. El modelo 865 suele estar por debajo de los 500 euros. Franja de los +500€ En esta franja encontramos algunos de los modelos tecnológicamente más avanzados del mercado. Sin embargo, aunque el precio aumente, en muchos modelos no vemos que su eficacia lo haga de forma proporcional. Generalmente son robots con características adicionales, sensores más precisos o sistemas de navegación mejorados, pero cuya compra a veces resulta difícil de justificar. ROOMBA SERIE 900 El Roomba 960 cuenta con una cámara (en la pequeña ventana de su parte superior) que se encarga de tomar puntos de referencia para mapear el espacio. En esta franja de precio finalmente podemos ver una serie de Roomba capaz de mapear el espacio y cubrirlo siguiendo patrones más ordenados. Nos referimos a la serie 900 —la más avanzada de iRobot— que incluye una cámara en la parte superior de sus modelos, utilizada para captar referencias visuales. Sin embargo, teniendo en cuenta el elevado precio de los modelos de la serie 900 de Roomba, es una lástima que su navegación se base en el reconocimiento visual y no en otro sistema más preciso como el láser o los sensores ultrasónicos. Además, los modelos de la serie 900 de Roomba incluyen wifi y se pueden controlar a través de la aplicación que ofrece iRobot. El Roomba 960 ronda los 899 euros y el modelo 980 supera los 1000 euros. HOMBOT SQUARE SERIES 11 Y 12 El Hombot Square VSR9640PS (Serie 12) ofrece videovigilancia a través de las cámaras que incluye y la conectividad wifi que incorpora. Siguiendo con los robots que utilizan el reconocimiento de imagen como sistema de mapeo principal, nos encontramos con las series 11 y 12 de los Hombot Square de LG. Los modelos de dichas series cuentan con conectividad wifi e incluyen la posibilidad de ser controlados a través de la aplicación gratuita que ofrece LG. El modelo de la serie 12, además, permite acceder a través de la aplicación a las cámaras que tiene el robot, siendo el primer robot aspirador cuenta con opción de videovigilancia del hogar. El LG VR9624PR (Serie 11) está disponible por casi 850 euros mientras que el LG VSR9640PS (Serie 12) se encuentra habitualmente por un precio cercano a los 1100 euros. NEATO BOTVAC D85 Y BOTVAC D5 CONNECTED El Botvac D5 de Neato es uno de los robots aspiradores con más autonomía y tecnológicamente más avanzado. Una vez más, nos encontramos otra vez con los robots aspiradores con sensores láser de Neato Robotics. Uno de sus modelos más popular es el Neato Botvac D85 que, aunque no incluye conectividad wifi ni control vía app, es capaz de cubrir hasta 278m² por carga y está especialmente diseñado para recoger pelos de mascotas. Se puede encontrar por menos de 600 euros. Por otro lado, Neato también ofrece el Botvac D5 Connected, con una autonomía de hasta 420 m², conectividad wifi y control vía app, además de ofrecer integración con Amazon Alexa y Google Home. En este caso, ronda los 700 euros. También te recomendamos Ilife V5 Pro e Ilife V7S, análisis: dos robots aspiradores chinos que quieren competir con Roomba, pero ¿pueden? Samsung apuesta por el Internet de las cosas y adquiere SmartThings La siguiente maravilla del mundo podría ser construida por un robot: estos son sus límites - La noticia Guía de compra de robots aspiradores: qué mirar antes de comprar y los modelos más interesantes del mercado fue publicada originalmente en Xataka por Silvia Rodríguez .

Leer más »

Más de cien artículos científicos retirados por fraude son una llamada de atención: o cambiamos el sistema o tendremos problemas

650_1200

Más de cien papers acaban de ser retractados de la revista Tumor Biology después de que se descubriera que los autores fingieron el proceso de revisión de pares. No es un hecho aislado: el año pasado cayeron otros 58 artículos científicos de los que 25 fueron de la misma revista. Pero, siendo sinceros, esto es solo una gota en el océano de problemas que arrastra la ciencia contemporánea. Hoy las debilidades del sistema de publicación científica afectan a la investigación del cáncer, pero si no buscamos una solución pronto las consecuencias pueden ser mucho más graves. La plaga de los artículos retractados Basta con echar un ojo a Retraction Watch para ver que cada día se retractan numerosos artículos por todo el mundo. Distinguir entre fraudes, malas prácticas y errores se está convirtiendo en todo un problema. Los ánimos están tan caldeados que muchos investigadores llegan a decir abiertamente que tienen miedo de que un error se convierta en su 'tumba profesional'. Este caso es llamativo no solo por el número de artículos, sino por la forma en que lo han hecho. Para publicar un artículo científico se tiene que pasar por una 'revisión de pares' anónima. Es decir, el texto se envía a otros expertos del área para que vean si está bien hecho, si es interesante y si es novedoso. El problema es que las revisiones de artículos están mal gestionadas. El sistema se basa en tener a superexpertos trabajando sin remuneración para revistas que suelen ganar mucho dinero. Algo que, quién lo iba a decir, no funciona todo lo bien que nos gustaría. En los últimos años, los investigadores pueden sugerir revisores para un trabajo concreto. Esto es así porque el nivel técnico de muchas de las investigaciones es tan alto que solo hay un grupo reducido de especialistas con suficientes conocimientos para revisar el trabajo; pero también porque las revistas están muy desesperadas por encontrar revisores. El misterioso caso del revisor fantasma Lo curioso del caso no es que se haya creado un cártel o un colegio invisible. Es decir, no se trata de un grupo de investigadores que 'trapicheaban' con las revisiones de sus propios artículos. El fraude ha consistido, directamente, en inventarse investigadores que no existían, con correos y cargos falsos en universidades de todo el mundo. Como explicaba la editora de la revista Research Integrity and Peer Review Elizabeth Wager en Ars Technica, los revisores falsos "sabían cómo eran las revisiones y las hacían plausibles". Sin embargo, no fueron plausibles en todo el proceso de revisión. Tanto es así que los pillaron por puntuales. Las revisiones habituales no suelen llegar en fecha y suelen retrasar todo el proceso de publicación científica. Los revisores falsos, en cambio, siempre eran puntuales. Algo demasiado bueno para ser verdad. La profesionalización del fraude Según la investigación, el problema ha ido creciendo porque el fraude se ha 'profesionalizado'. Según parece, el origen del problema no está solo en los investigadores, sino en algunos servicios que usan de forma asidua los grupos de investigación que no son angloparlantantes. Según parece, hay ciertas empresas de traducción y de servicios editoriales que habían convertido la revisión fraudulenta en un servicio más. Muchas veces sin que ni los investigadores lo supieran. Ante las sospechas, Springer, la antigua editora de la revista, decidió hacer un análisis más completo de todo lo que estaba pasando en la revista. Ahí descubrieron nuevos revisores falsos y, por ahora, han caído 107 papers. Un problema de fondo Hace unos días, Marcus Banks en Slate defendía que necesitábamos un GitHub para la investigación académica. Es una reflexión que se enmarca en un problema que viene de largo: el paper (el artículo científico) ha sido, durante siglos, una de las vías más exitosas para comunicar ciencia. En las últimas décadas, ha dejado atrás a libros y monográficos. Sin embargo, es un sistema demasiado estático y poco versátil. Como decía Banks, el lamentable y fraudulento estudio de Wakefield en el que relacionaba vacunas y autismo se publicó en 1998. Pero, aunque se supo casi de inmediato que era falso, Lancet, la revista que lo publicó, solo lo retractó completamente en 2010. Daniel Lakens, profesor de psicología experimental en la Universidad Tecnológica de Eindhoven y uno de los 'activistas de la replicabilidad' más conocidos de los últimos años, fue mucho más allá. Para él, ha llegado el momento en que las entradas de un blog tienen más calidad científica que muchos artículos científicos. Lakens lo tiene claro: son más abiertos, más dinámicos, más innovadores y se corrigen mejor. Lakens siempre está a mitad de camino entre el argumento interesante y la boutade, pero sin duda ahí hay un problema importante. Todo el sistema de la ciencia contemporánea se fundamenta sobre una base bibliométrica que atraviesa serios problemas, pero que, como podemos ver, no sabemos cómo solucionar. Los próximos años van a ser fundamentales... y muy divertidos. Imágenes | Idaho National Laboratory, Nature, hobvias sudoneighm También te recomendamos Por qué los muones están rompiendo los esquemas de la materia tal y como la conocemos La siguiente maravilla del mundo podría ser construida por un robot: estos son sus límites ¿Por qué seguimos buscando números primos más allá de los 22 millones de dígitos? - La noticia Más de cien artículos científicos retirados por fraude son una llamada de atención: o cambiamos el sistema o tendremos problemas fue publicada originalmente en Xataka por Javier Jiménez .

Leer más »

Google también quiere ser rey en la computación cuántica llegando en 2017 a “la supremacía de los 49 qubits”

1024_2000

Donde Google pone el ojo, pone la bala, y la computación cuántica tampoco se queda fuera de sus planes. La empresa lleva años trabajando en este campo y ahora, ni cortos ni perezosos, en Google aseguran que alcanzarán la "supremacía cuántica" para este 2017. ¿Qué es esto de la "supremacía cuántica"? Una manera de expresar la seguridad que tienen en cuanto al nuevo chip que han fabricado, el cual permitirá según el gigante tecnológico llegar a un nivel de cálculo más allá de cualquier computadora actual. Aquí la batalla no está tanto en hardware con los núcleos del procesador o los GB de RAM, sino en los qubits, y desde Google dicen que el primer objetivo para esta supremacía son 49 qubits. ¿"Qu" qué? Se habla de que la computación cuántica es el futuro de los ordenadores al permitir cálculos y operaciones mucho más complejas en menos tiempo. Igual que las computadoras "clásicas" operan con bits, las cuánticas lo hacen con qubits, siendo una de las claves el que se puedan realizar varias operaciones simultáneas sobre un único qubit (gracias al entrelazamiento y la superposición de estados, como nos explicaron muy detalladamente en Genbeta). ¿Qué ocurre entonces con Google y sus metas en cuanto a la computación cuántica? El último chip que los de Mountain View han logrado fabricar es de seis qubits, siendo un reto en cuanto a fabricación dado que el diseño es clave para que haya un buen desempeño sin interferencias. Pero según recogen en el MIT, John Martinis (jefe del grupo de investigación de Google en esta materia) ha dicho que tras lograr esto están listos para evolucionar más deprisa y que ya están trabajando en diseños para dispositivos con entre 30 y 50 qubits. Este experimento al parecer vería la luz a finales de este año y sería relativamente un pequeño avance dado que aún queda mucho por hacer (según Martinis). Pero de este modo vería desde el retrovisor a Intel, IBM y Microsoft, compañías que también están compitiendo en esta carrera cuya liebre aspira a ser la computación del futuro. Una carrera con cuatro titanes y trabajo sub-atómico Google ya hacía ruido con la cumputación cuántica en 2013 (usándolo para las Google Glass, cuando este área estaba aún en un estado muy temprano de desarrollo. El empeño del gigante tecnológico se iba viendo con las actualizaciones de su inicial D-Wave, si bien no parecía que en un principio la evolución fuese demasiado notable con el D-Wave 2. En ese momento además ya se iban aclarando los campos de aplicación de esta computación cuántica primigenia, y ya se hablaba de su posible utilidad en inteligencia artificial, seguridad y criptografía. Poco a poco además veíamos avances en hardware más allá de los procesadores, como los avances hacia el disco duro cuántico a principios de 2015. En los últimos años hemos visto aproximaciones a discos duros cuánticos y chips fotónicos entre otros Ese año vimos el chip fotónico que desarrollaron la Universidad de Bristol y la compañía NTT, el cual abría las puertas de la computación cuántica a la multitarea, y otra declaración de intenciones de Google, quienes aseguraban que su ordenador cuántico era 100 millones de veces más rápido que uno convencional. Pero como decíamos esto no es un viaje en solitario, sino una carrera de titanes, e IBM también ha ido mostrando sus avances, de hecho ofrecieron que cualquier usuario pudiese comprobar el comportamiento de su procesador cuántico de cinco qubits. Por su parte, en Microsoft anunciaron que iban a poner más esfuerzos para avanzar en esta particular carrera con un enfoque distinto al de IBM y Google: una computación cuántica escalable recurriendo a qubits topológicos (basada en aniones). Mientras, en Intel apostaban por los transistores de silicio también en esta computación. En el futuro a corto plazo queda ver si Google finalmente muestra la patita con sus 50 qubits. En IBM calculaban que llegarían a los procesadores a 50 y 100 qubits en los próximos 10 años (según decían en 2016) y hace poco más de un mes vimos que en la Universidad de Michigan estaban trabajando con pulsos láser, aplicándolos a la computación cuántica para lograr a largo plazo ordenadores que trabajarían hasta 100.000 veces más rápido que los actuales. También te recomendamos La siguiente maravilla del mundo podría ser construida por un robot: estos son sus límites Un pulso láser de femtosegundos plantea ordenadores 100.000 veces más rápidos que los actuales Tinta electrónica y autonomía de tres meses: en Google ha gustado esta posible evolución del calendario de papel - La noticia Google también quiere ser rey en la computación cuántica llegando en 2017 a "la supremacía de los 49 qubits" fue publicada originalmente en Xataka por Anna Martí .

Leer más »

El motor eléctrico de Siemens para aviones está batiendo récords: más de 340 km/h y remolque de un planeador

1024_2000

No parece que vayamos a tener vehículos eléctricos voladores en un futuro muy próximo. En la superficie es algo que poco a poco vamos viendo crecer, gracias a la evolución en la tecnología de baterías y los sistemas de carga que se van implantando, pero el peso del conjunto no es un factor tan importante, al menos no tanto como puede ser en un avión. Siemens es una de las empresas pioneras en llevar la tecnología de propulsión eléctrica a las alturas y tiene para ello un prototipo de motor eléctrico, y baterías, bastante interesantes de conocer, montados en el avión Extra 330LE. Es un avión completamente eléctrico, no hay en él ningún otro tipo de sustento para hacer volar a la máquina. El punto fuerte de este desarrollo está en conseguir que tanto el motor como las baterías tengan un peso reducido, de ahí que hayan conseguido batir varios récords en los últimos meses. El avión ‘completalmente’ eléctrico de Siemens pesa 1.000 kilos: su secreto está en la densidad de las baterías Su aspecto es bastante similar al de un avión privado de reducidas dimensiones, pero cuenta con un motor eléctrico que pesa únicamente 50 kilos y es capaz de ofrecer una potencia de 260kW, que son unos 350CV a 2.500rpm. Sobre autonomía y capacidad de baterías, desafortunadamente no nos cuentan nada. Siemens nos deja claro que esto es un proyecto de investigación, funcional, pero que no tiene intención de llevar a producción. Tampoco ven un futuro aéreo completamente eléctrico, tiene más sentido utilizar estos avances dentro de un conjunto de propulsión híbrido. Trabajan en ello junto a Airbus, quieren crear un avión en el que quepan 100 personas y se mueva en vuelos regionales. Si todo marcha como tienen programado, eso será posible en 2030. Los récords del avión eléctrico En su corta vida tiene en su haber diferentes récords o hitos, también es cierto que hay pocas compañías grandes trabajando en la misma historia (a Tesla también le gusta la idea). Vamos a conocer los más relevantes, conseguidos en el aeródromo alemán de Dinslaken Schwarze Heide, siempre dentro de la categoría de aviones de menos de 1.000 kilos de peso: el piloto Walter Extra rompió el récord de velocidad máxima alcanzada en vuelo recto, llegando a mantener 337,50km/h durante tres minutos. el piloto Walter Kampsmann llegó a la velocidad máxima de 342,86km/h récord de ascenso a 3.000 metros de altura en 4 minutos y 22 segundos remolcar a un planeador hasta los 600 metros de altura en 76 segundos (es la primera vez que se usa un avión eléctrico para remolcar) También te recomendamos El metro de Singapur ya tiene una línea que funciona de forma automática, sin conductores Este mastodonte es el camión más grande del mundo impulsado por motores eléctricos La siguiente maravilla del mundo podría ser construida por un robot: estos son sus límites - La noticia El motor eléctrico de Siemens para aviones está batiendo récords: más de 340 km/h y remolque de un planeador fue publicada originalmente en Xataka por Kote Puerto .

Leer más »

Las herramientas de creación de juegos como Unreal Engine se ponen al servicio de los arquitectos

1024_2000

Creo que nadie va a dudar a estas alturas de una herramienta como Unreal Engine, el software de Epic Games está dando forma gráfica y jugable a alguno de los títulos más importantes de la historia del videojuego, desde 1998. Las capacidades para crear mundos virtuales superaron los límites establecidos inicialmente por sus creadores, y ahora es fácil encontrar proyectos que utilizan el ‘motor de juegos’ en ciencia, simulación o arte. Os hemos puesto ejemplos en el pasado con obras obras creadas con UE4, también de la calidad fotográfica que se puede conseguir en sus elementos y texturas. El caso que nos ocupa hoy tiene que ver con la arquitectura, un mundo que con mucha lógica puede aprovechar las posibilidades de visualización que ofrecen las herramientas de Epic. Por esto la compañía americana ha esta divulgando información relativa a ese uso concreto, acompañada de algunos vídeos interesantes. Los juegos no tienen problema para crear escenarios fotorealistas, un arquitecto puede aprovechar esa calidad Nos ponemos en la situación en la que un diseñador de estructuras o arquitecto quiere mostrar una idea a clientes, y quiere hacer de forma que sea una experiencia interactiva. ¿Por qué no aprovechar la calidad gráfica actual de un juego? Seguro que es más atractivo que realizar un boceto o crear un diseño por ordenador en el que no nos podemos mover, o tampoco hay facilidades para trabajar con materiales fotorrealistas o iluminaciones complejas, en tiempo real. Un siguiente paso lógico está en relacionar la obra creada con la realidad virtual, algo que Unreal Engine facilita y permite que clientes puedan sumergirse en un edificio que todavía no existe. Este mes de abril se han estado realizando algunas ponencias a través de la web, con arquitectos como Fabrice Bourrelly - trabaja para Google, Bentley Motors o Philippe Starck - exponiendo razones para usar Unreal Engine. En las demostraciones se utilizan modelos conocidos como la ‘Iglesia de la Luz’ del arquitecto japonés Tadao Andō, o la ‘Casa de Cristal’ de Philip Johnson: A final de cuentas lo que se consigue es crear ambientes en los que nos podemos mover, con diferentes materiales que se pueden representar con calidad fotográfica e iluminación dinámica. Las caras en Unreal Engine Salto a un terreno completamente diferente, pero quería aprovechar que hablábamos de Unreal Engine para mostrar las posibilidades de la herramienta a la hora de representar rostros de forma fotorealista en videojuegos, o donde sea necesario. También te recomendamos La siguiente maravilla del mundo podría ser construida por un robot: estos son sus límites Lo que vemos no son fotografías, son imágenes creadas con Unreal engine 4 Unreal Engine nos invita a ponernos el casco para crear mundos virtuales - La noticia Las herramientas de creación de juegos como Unreal Engine se ponen al servicio de los arquitectos fue publicada originalmente en Xataka por Kote Puerto .

Leer más »