• ADN humano sintético, creado desde cero
    Jun 27 2025
    Científicos británicos crean genes humanos en laboratorio para estudiar enfermedades y desarrollar terapias celulares del futuro Por Félix Riaño @LocutorCo Investigadores del Reino Unido están construyendo fragmentos de ADN humano sintético para entender cómo funciona el genoma y diseñar nuevos tratamientos. Un equipo de científicas y científicos del Reino Unido está comenzando un experimento tan ambicioso como polémico: fabricar partes del ADN humano desde cero. Es decir, no editar genes existentes, sino construir nuevas cadenas genéticas, base por base, como si estuvieran armando un genoma humano desde el principio.El proyecto se llama Synthetic Human Genome, o SynHG, y su objetivo es comprender cómo funciona el ADN para poder crear terapias más precisas y resistentes a enfermedades.Con una inversión inicial de 10 millones de libras esterlinas por parte de la fundación médica Wellcome Trust, el proyecto reúne a expertos de universidades como Cambridge, Oxford e Imperial College.Van a dedicar cinco años a crear herramientas para ensamblar secciones grandes de un cromosoma humano en el laboratorio y observar cómo se comportan en células vivas. Pero no todo es esperanza médica: también hay preguntas éticas difíciles. ¿Qué pasa si alguien usa esta tecnología para crear armas biológicas o humanos modificados? La promesa médica es enorme, pero el debate ético ya está encendido. Desde que se completó el Proyecto Genoma Humano en 2003, los científicos han logrado leer el ADN como si fuera un código de barras.Pero leer no es lo mismo que escribir.Ahora, el objetivo del SynHG es ir más allá y construir fragmentos del genoma humano como prueba de concepto. El primer paso será crear un cromosoma sintético, que representa aproximadamente el dos por ciento del ADN humano total. Para lograrlo, están utilizando inteligencia artificial y tecnologías de ensamblaje molecular, con la idea de diseñar células humanas que funcionen igual que las naturales, pero con mejoras específicas.Por ejemplo, células que puedan resistir virus o regenerar órganos dañados como el hígado, el corazón o incluso el sistema inmunológico. Aunque hoy suena a ciencia ficción, el equipo ya logró sintetizar el genoma completo de bacterias como E. coli, así que el reto ahora es escalar esa tecnología a un nivel humano. Y si lo logran, podríamos estar frente al inicio de una nueva medicina. Este avance tecnológico trae consigo un debate ético urgente y profundo. El solo hecho de poder fabricar cromosomas humanos en laboratorio plantea preguntas como: ¿Quién tendrá el control de estas tecnologías? ¿Qué uso se les dará? ¿Cómo se va a regular su aplicación?Algunas voces ya advierten que los riesgos van más allá de los laboratorios. Por ejemplo, el profesor Bill Earnshaw, de la Universidad de Edimburgo, señaló que si un grupo con malas intenciones accede a esta tecnología, podría sintetizar organismos para crear armas biológicas o alterar el equilibrio ambiental. Y hay otra preocupación: la creación de “bebés a la carta”. Aunque los investigadores insisten en que eso no es el objetivo, temen que en el futuro alguien intente copiar el ADN de celebridades o modificar genes para diseñar seres humanos a medida.También hay un dilema legal: si se crean tejidos, células u órganos sintéticos, ¿quién será el dueño ¿El laboratorio, el paciente, o la empresa que fabrica las herramientas?Por eso, el proyecto incluye desde el comienzo un componente social y ético llamado Care-full Synthesis, liderado por la profesora Joy Zhang. Este programa está trabajando con comunidades de todo el mundo para debatir abiertamente los límites, los miedos y los beneficios de esta nueva etapa de la biología. El futuro que propone el proyecto SynHG es tan fascinante como complejo. En el mejor de los casos, podríamos tener terapias celulares que no provoquen rechazos, tejidos inmunes a enfermedades como el cáncer o el VIH, y órganos cultivados a partir de células sintéticas para trasplantes. También se podrían evitar enfermedades hereditarias graves, como las mitocondriales, sin necesidad de recurrir a donantes. La posibilidad de diseñar mitocondrias sintéticas, por ejemplo, reduciría a la mitad el número de mujeres que deben someterse a procesos invasivos para evitar transmitir estas condiciones a sus hijas o hijos.A nivel científico, esta tecnología permitiría probar hipótesis sobre la función del genoma, algo que hoy solo se puede hacer modificando genes existentes. Por ejemplo, entender partes del genoma que se conocen como “materia oscura genética”, que aún no sabemos para qué sirven. Pero hay una condición importante: la investigación debe ser abierta, responsable y equitativa. Actualmente, la mayoría de los estudios genéticos se concentran en personas de ascendencia europea.El programa Care-full Synthesis busca corregir este sesgo e ...
    Mehr anzeigen Weniger anzeigen
    9 Min.
  • Gemini dentro del robot
    Jun 26 2025
    Robots que aprenden tareas viendo videos... y sin conexión a internet Por Félix Riaño @LocutorCo Google DeepMind presentó Gemini Robotics On-Device, un modelo que funciona dentro del robot, sin necesidad de la nube, aprende rápido y se adapta a distintos cuerpos robóticos. Google DeepMind presentó un modelo de inteligencia artificial que no necesita conexión a internet para funcionar. Se llama Gemini Robotics On-Device y opera dentro del robot. Es rápido, privado y ya puede doblar ropa, abrir cremalleras y adaptarse a varios tipos de robots sin tener que volver a entrenarlo desde cero. Aprende viendo tareas nuevas entre 50 y 100 veces. Se entrena rápido y ejecuta en tiempo real. Es como tener un robot que piensa por su cuenta, sin depender de ningún servidor externo. ¿Ya estamos cerca de tener robots verdaderamente autónomos en nuestras casas y trabajos? Este robot no necesita nube para pensar. Piensa dentro de sí mismo. Imagina que tienes un robot en casa. Le dices “dobla esta camiseta” y lo hace sin conectarse a internet. Esa es la idea de Gemini Robotics On-Device. Funciona completamente desde el robot. Google entrenó este modelo en su robot ALOHA y luego lo adaptó al humanoide Apollo y al robot Franka FR3 con dos brazos. Se adapta con rapidez y funciona sin ayuda externa. Lo sorprendente es que aprende nuevas tareas con solo 50 a 100 demostraciones. Puede entender instrucciones como “abre esta cremallera” y ejecutar la acción con precisión. Todo se procesa dentro del robot. Nada se envía a la nube. Los robots que necesitan internet pueden fallar si la red se cae. Además, enviar todo lo que ven a la nube plantea problemas de privacidad. En entornos sensibles como hospitales, fábricas o casas, eso no es aceptable. Gemini Robotics On-Device elimina ese riesgo. El procesamiento local evita filtraciones y funciona incluso sin señal. Eso permite usarlo en lugares donde antes era impensable. Pero también hay desafíos: los desarrolladores deben encargarse de que el robot no cometa errores peligrosos. Google sugiere usar su API de seguridad o crear mecanismos de protección propios para evitar comportamientos inadecuados o inseguros. Gemini Robotics On-Device es ideal para tareas cotidianas. Se entrena rápido, se adapta a distintos robots y actúa en tiempo real. No sustituye al modelo más avanzado en la nube, pero lo complementa. Puede operar sin conexión, lo que es útil en lugares con mala señal o donde la privacidad es prioritaria. Google lanzó un SDK que permite entrenar nuevos comportamientos usando el simulador físico MuJoCo. Ya hay testers trabajando con el modelo. En poco tiempo podríamos ver robots que doblan ropa, ensamblan piezas o colaboran en casa sin necesidad de conexión. El futuro robótico, autónomo y local ya llegó. Otras empresas también trabajan en robótica. Nvidia está desarrollando una plataforma de modelos base para robots humanoides. Hugging Face crea conjuntos de datos abiertos para entrenar robots. La startup coreana RLWRLD también desarrolla modelos fundacionales. Pero Google ya tiene un modelo funcional probado en robots reales. Su equipo ReDI evalúa la seguridad y el impacto social del sistema. Cada nuevo avance pasa por el Consejo de Seguridad y se hacen pruebas para corregir errores. La versión actual está basada en Gemini 2.0, pero vendrán más potentes. La robótica sin internet ya no es futuro. Es presente. Robots que aprenden sin internet, ejecutan tareas en tiempo real y cuidan tu privacidad. Gemini Robotics On-Device ya está en pruebas reales. ¿Qué tarea le enseñarías tú? Comenta y sigue el pódcast Flash Diario en Spotify.📚 Bibliografía The Verge sTechCrunch Ars Technica Google DeepMind Blog Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    Mehr anzeigen Weniger anzeigen
    11 Min.
  • Nadie más podrá usar tu celular robado
    Jun 25 2025
    Activa estas funciones de seguridad en Android y Samsung Galaxy para proteger tu información si te roban el teléfono Por Félix Riaño @LocutorCo Samsung y Android están empujando fuerte con funciones antirrobo. Vamos a contar cómo activarlas, qué hacen exactamente y por qué no debes confiarte con dejar el celular desbloqueado en el bolsillo. Los robos de celulares siguen creciendo. En Bogotá, la Policía ya ha recuperado más de mil ochocientos celulares robados este año. En Reino Unido, Samsung está enviando notificaciones masivas a cuarenta millones de personas para que activen sus funciones de protección. Y si tienes un Galaxy con One UI 7, puedes bloquear el teléfono aunque esté sin internet, pedir autenticación biométrica para cambiar datos, o activar un retraso de seguridad si alguien intenta alterar tus huellas digitales. ¿Y si tienes un Android de otra marca? También puedes protegerte… pero con algunos límites. ¿Sabías que hay que correr bastante para que se active la protección contra robos? Activar estas funciones no es automático: hay que buscarlas. Vamos a contarlo como es: no basta con tener un teléfono caro o moderno. Si no activas tú mismo las funciones de protección, tu información queda expuesta en caso de robo. Y no solo hablamos de perder tus fotos o mensajes. También podrían tener acceso a tus correos, tu cuenta bancaria o tus redes sociales. Por eso, Samsung ha incluido en su actualización One UI 7 un paquete de seguridad que vale la pena entender y configurar. Incluye bloqueo remoto, bloqueo sin conexión, verificación biométrica desde ubicaciones desconocidas, y algo llamado "retraso de seguridad" para darte una hora antes de que los ladrones puedan cambiar tus datos biométricos. Todo eso está disponible en los Galaxy S25, S24, S23, S22, Fold5, Fold6, Flip5 y Flip6. En muchas ciudades de América Latina y Europa, los robos de celulares no son cosa del pasado. Siguen ocurriendo en buses, en la calle, en cafeterías. Y muchas veces, el ladrón no necesita correr. Basta con que vea tu PIN una vez y tenga el equipo desbloqueado en sus manos para que acceda a todo. Aunque Android y Samsung han mejorado sus sistemas, aún hay vacíos. Por ejemplo, algunas funciones como la detección de robo no funcionan si el teléfono está bloqueado o simplemente está sobre la mesa sin movimiento. Y aunque los sensores de movimiento activan bloqueos automáticos si detectan una sacudida violenta, no siempre es suficiente. A eso se suma que estas funciones no vienen activadas de fábrica: hay que entrar a configuración, buscar “Protección contra robo” y activarlas manualmente. La buena noticia es que sí puedes protegerte. Vamos a contarte cómo activar tres funciones clave si tienes Android 10 o superior: primero, “Bloqueo por detección de robo”, que se activa si el celular detecta un movimiento brusco o si se desconectan el Wi-Fi y el Bluetooth de manera sospechosa. Segundo, “Bloqueo sin conexión”, que impide el acceso si el teléfono pierde señal o entra en modo avión. Y tercero, el “Bloqueo remoto”, que puedes activar desde cualquier navegador entrando a android.com/lock y escribiendo tu número. En el caso de los Galaxy con One UI 7, hay mejoras extra: por ejemplo, el teléfono se bloquea automáticamente si alguien intenta borrar las huellas digitales, y se impone una espera de una hora antes de aceptar nuevos datos biométricos. Ese margen de tiempo permite que puedas bloquearlo tú desde un computador o tableta antes de que el ladrón acceda a tu cuenta. Google entrenó la inteligencia artificial de Android para detectar robos basándose en sensores de movimiento y en patrones típicos de hurto. Para eso, su equipo de seguridad hizo pruebas en Brasil, uno de los países con más robos de celulares. En esas pruebas, simularon robos corriendo, en bicicleta o en carro, para generar trazas que luego alimentaron el modelo de inteligencia artificial. Pero hay un detalle curioso: el sistema solo se activa si el celular está desbloqueado y en uso. Es decir, si te lo quitan de las manos mientras lo estás usando. No funciona si está bloqueado sobre la mesa. Además, la protección se detiene si se activa dos veces seguidas para evitar falsos positivos. Algunos usuarios reportan que necesitan correr bastante rápido para que se active, lo cual sugiere que los ladrones tienen mejor condición física que muchos de nosotros. Por eso, Google recomienda tener activado también el Bloqueo sin conexión y el Bloqueo remoto. Y como consejo adicional: usa una contraseña larga, no un PIN fácil de adivinar. Proteger tu teléfono Android o Galaxy está en tus manos. Activa ya las funciones antirrobo y configura el bloqueo biométrico. Te invito a compartir este episodio y seguir el pódcast Flash Diario en Spotify:Flash Diario en Spotify🔗 BibliografíaSamsung Newsroom ColombiaWiredAndroid PoliceTom’s GuideAndroid ...
    Mehr anzeigen Weniger anzeigen
    9 Min.
  • Lenovo lanza el mejor Chromebook hasta ahora
    Jun 24 2025
    El nuevo Chromebook Plus 14 de Lenovo usa IA para organizar, crear y funcionar sin conexión. ¿Adiós a Windows? Por Félix Riaño @LocutorCo El nuevo Chromebook Plus 14 de Lenovo marca un paso importante en la evolución de los portátiles con inteligencia artificial integrada. Google le ha apostado a potenciar ChromeOS con Gemini, funciones avanzadas como agrupación automática de pestañas, edición de imágenes local y una autonomía de hasta 17 horas. A esto se suma Android 16, que llega con ventanas redimensionables y compatibilidad con pantallas externas, trayendo de regreso el debate: ¿estamos a punto de ver el nacimiento de Android para escritorio? La jugada de Google con estos dos frentes podría cambiar la forma en que usamos nuestros dispositivos para trabajar, estudiar y crear. Google parece estar duplicando esfuerzos en dos frentes parecidos El 23 de junio de 2025, Google y Lenovo anunciaron el lanzamiento del Chromebook Plus 14, el primer portátil con ChromeOS equipado con el nuevo procesador MediaTek Kompanio Ultra 910 y capacidades de inteligencia artificial local. Este modelo marca un antes y un después para los Chromebooks, integrando funciones de edición de imágenes directamente en la app de galería y herramientas como agrupación inteligente de pestañas y documentos. Estas mejoras no dependen de conexión a internet, gracias a la NPU (unidad de procesamiento neuronal) capaz de ejecutar hasta 50 billones de operaciones por segundo. Además, el dispositivo ofrece una pantalla OLED de 14 pulgadas, 400 nits de brillo, altavoces con Dolby Atmos, hasta 16 GB de RAM y compatibilidad con dos pantallas externas 4K. Todo esto en un cuerpo delgado de apenas 1,17 kilogramos. Es el Chromebook más potente hasta ahora y viene con un año gratuito de Google AI Pro, lo que incluye herramientas como Gemini 2.5 Pro, Flow y Veo 3 Fast. Pero mientras ChromeOS gana nuevas funciones, Google también ha estado construyendo una alternativa: Android 16 con capacidades de escritorio. Este nuevo enfoque incluye ventanas redimensionables, modo multiventana y la posibilidad de conectar pantallas externas para usar un teléfono o tablet como si fuera un computador completo. Con eso, Android empieza a parecerse a un sistema operativo de escritorio. De hecho, durante el evento I/O 2025, Google mostró cómo Android 16 puede usar una pantalla externa para transformar un dispositivo móvil en una herramienta de productividad con múltiples ventanas abiertas. ¿Estamos ante una estrategia de transición? Algunos analistas creen que Google está preparando a Android para reemplazar en el futuro a ChromeOS en ciertos segmentos del mercado. Al mismo tiempo, ChromeOS sigue presente en educación, empresas y dispositivos como este nuevo Chromebook de Lenovo. ¿Es sostenible mantener dos sistemas de escritorio? ¿O veremos una fusión completa más adelante? Por ahora, parece que Google va a seguir desarrollando ambas plataformas en paralelo. Android 16 se enfoca más en la experiencia multitarea en tablets y teléfonos, mientras que ChromeOS mantiene su fortaleza en el mundo académico y profesional. Pero la diferencia se está acortando. El Lenovo Chromebook Plus 14 ofrece funciones que antes solo veíamos en Android: búsquedas visuales con Lens, transcripción de texto desde imágenes y hasta generación de imágenes con inteligencia artificial. Todo esto lo hace sin enviar datos a la nube, lo que garantiza privacidad y velocidad. Además, los dispositivos Chromebook Plus nuevos incluyen un año de Google AI Pro y Gemini instalado desde el primer día. Mientras tanto, Android 16 se prepara para llevar la experiencia de escritorio a más dispositivos móviles, con un enfoque que recuerda a Samsung DeX. ¿La diferencia? Ahora todo estará potenciado por inteligencia artificial y Gemini. En el futuro, podríamos tener Chromebooks convertibles en tablets o tablets que se comportan como Chromebooks. Sea como sea, Google quiere que el usuario final tenga una experiencia fluida, inteligente y conectada. El Lenovo Chromebook Plus 14 no solo destaca por su potencia técnica. Es un equipo pensado para personas que necesitan productividad real en movilidad. Con hasta 17 horas de batería y conectividad Wi-Fi 7, es ideal para quienes trabajan desde cualquier lugar. Además, su pantalla OLED con gama de color 100% DCI-P3 es perfecta para creadores visuales. Lenovo también incluyó una cámara de 5 megapíxeles con obturador físico para privacidad, teclado retroiluminado y chasis de aluminio. Es un dispositivo silencioso, sin ventilador, y con opciones de almacenamiento hasta 256 GB UFS. A nivel empresarial, puede incluir Chrome Enterprise Upgrade para gestión remota en empresas. En educación, los colegios pueden optar por Chrome Education Upgrade para controlar y personalizar el entorno digital de cada estudiante. En resumen, este Chromebook Plus 14 es el modelo más ambicioso hasta ahora. Y la ...
    Mehr anzeigen Weniger anzeigen
    14 Min.
  • El módulo japonés que dejó cicatriz lunar
    Jun 23 2025
    NASA detecta la huella del accidente del módulo japonés Resilience en Mare Frigoris, una región volcánica lunar Por Félix Riaño @LocutorCo Un módulo japonés llamado Resilience, construido por la empresa ispace, debía aterrizar suavemente en la Luna. En su lugar, dejó una mancha oscura en el polvo lunar. El accidente ocurrió el 5 de junio, pero las imágenes que lo confirman llegaron hasta ahora. Fueron tomadas por el orbitador LRO de la NASA y muestran una marca inconfundible: un punto negro rodeado por un halo claro, formado por el polvo que se levantó al impactar. La historia de este accidente no es solo una crónica de fracaso, también es una oportunidad para aprender. ¿Qué nos dicen las imágenes del impacto sobre los límites de la exploración espacial privada? Es el segundo intento fallido de ispace en solo dos años. La mañana del 5 de junio de 2025, desde el centro de control en Tokio, la empresa ispace intentó hacer historia. Su módulo lunar Resilience, lanzado el 15 de enero desde Cabo Cañaveral, estaba por completar una misión ambiciosa: tocar la superficie de la Luna de manera controlada, liberar un pequeño rover y abrir paso a futuras misiones comerciales japonesas. El sitio elegido fue Mare Frigoris, conocido como el Mar del Frío, una región del norte lunar con valor científico y estratégico. A bordo del módulo iba Tenacious, un microrobot desarrollado por la división europea de ispace, con sede en Luxemburgo. Incluso llevaba una pequeña obra de arte: una réplica de una casa sueca tradicional, pintada de rojo y blanco. Todo parecía listo para hacer historia, pero en lugar de celebrar, el equipo perdió comunicación. El aterrizaje se transformó en un misterio que solo se resolvió días después. El problema surgió en los últimos segundos. El módulo descendía con precisión hasta que, sin previo aviso, el contacto se perdió. Durante horas no hubo señales. ispace no podía confirmar si Resilience había aterrizado o se había estrellado. Días más tarde, el orbitador LRO de la NASA ayudó a resolver el enigma. Desde unos 80 kilómetros de altitud, captó una imagen en blanco y negro de la zona. Allí se ve una mancha oscura con un halo claro a su alrededor. Es la marca de un impacto. Según los expertos, ese tipo de huella solo puede formarse si un objeto golpea la superficie a gran velocidad, levantando regolito: el polvo fino y rocoso que cubre la Luna. Esa marca fue comparada con fotos previas y no estaba antes. La conclusión fue inmediata: Resilience se estrelló. Y lo hizo a 2,4 kilómetros del punto exacto donde debía aterrizar. Una distancia que, en misiones lunares, es demasiado grande como para pasar por alto. La historia no termina en el impacto. La imagen de la NASA fue obtenida el 11 de junio, seis días después del accidente. El equipo de la misión LRO usó una cámara de alta resolución, llamada LROC, que puede detectar detalles mínimos en la superficie lunar. Comparando imágenes anteriores y posteriores, confirmaron la alteración del terreno. La zona del impacto será ahora objeto de estudio. No solo por el accidente, también por su ubicación: Mare Frigoris es una planicie volcánica muy antigua, con arrugas geológicas llamadas wrinkle ridges, formadas por el enfriamiento y contracción del suelo. Saber cómo responde este terreno ante impactos recientes puede aportar datos clave para futuras misiones, sobre todo en la planificación de aterrizajes. Aunque ispace ha tenido dos fracasos consecutivos —el anterior fue en abril de 2023—, cada intento suma información. En el mundo de la exploración espacial, incluso los errores dejan lecciones que pueden evitar tragedias más adelante. ispace va a presentar en los próximos días un informe oficial con las causas del fallo. Por ahora, la imagen de esa mancha lunar se convierte en el símbolo más reciente del esfuerzo humano por llegar más allá. El orbitador LRO (Lunar Reconnaissance Orbiter) lleva desde 2009 dando vueltas alrededor de la Luna. Fue lanzado por la NASA con el objetivo de estudiar el terreno lunar a fondo. Entre sus siete instrumentos, destaca el sistema de cámaras LROC, capaz de ver detalles minúsculos. Gracias a estas cámaras, se han podido observar los sitios donde aterrizaron las misiones Apolo, cráteres recién formados por meteoritos y ahora también el impacto de misiones fallidas, como Resilience. Este seguimiento no es solo un registro histórico. Sirve para planificar nuevas misiones y analizar cómo cambia la superficie lunar con el tiempo. La región de Mare Frigoris, donde ocurrió este choque, es de especial interés porque combina un terreno liso con zonas de tensión geológica. Esto la hace atractiva tanto para misiones robóticas como tripuladas. La visibilidad de esta huella en el polvo lunar también ayuda a estudiar cómo se dispersa el regolito, algo importante para proteger naves y equipos en misiones futuras. El impacto fue...
    Mehr anzeigen Weniger anzeigen
    8 Min.
  • Adobe mejora la cámara del iPhone
    Jun 20 2025
    Adobe mejora tu cámara: App gratuita con inteligencia artificial para iPhone con IA, controles manuales y fotos RAW de alta calidad Por Félix Riaño @LocutorCo Adobe acaba de presentar una app experimental que transforma el modo en que usamos la cámara del iPhone. Se llama Project Indigo, y ya está disponible gratis en la App Store. Detrás del desarrollo están los mismos ingenieros que crearon la cámara de los teléfonos Pixel de Google. La promesa es clara: ofrecer una experiencia de captura con aspecto profesional, basada en inteligencia artificial, procesamiento por ráfagas y controles manuales. ¿Puede una app gratuita reemplazar la cámara nativa del iPhone y convertirse en la favorita de quienes aman la fotografía móvil? Project Indigo no toma una sola foto: toma hasta 32 imágenes en ráfaga, las alinea y las fusiona para crear una sola más precisa, con menos ruido, mejor rango dinámico y más detalle. Lo más impresionante es que lo hace con un enfoque natural, evitando los efectos exagerados que muchos usuarios detestan. Está disponible desde el iPhone 12 Pro y en todos los modelos del iPhone 14 en adelante, aunque Adobe recomienda usarlo con un iPhone 15 Pro o superior. No necesitas tener cuenta de Adobe ni iniciar sesión, lo cual la hace ideal para experimentar sin compromiso. Además, es compatible con fotos RAW y JPEG. Y si usas Lightroom, puedes enviar tus fotos directamente desde Indigo para editarlas. Pero no todo es perfecto: Pierdes funciones nativas como Live Photos, modo retrato y estilos fotográficos. El cerebro detrás de Indigo es Marc Levoy, quien dejó Google en 2020 para unirse a Adobe con el objetivo de crear una “app de cámara universal”. Junto a él está Florian Kainz, también ex Google y experto en procesamiento de imagen. Ambos fueron clave en los avances del Pixel, que convirtió a la cámara de Google en un referente. Con Indigo buscan ir más allá: crear fotos que parezcan tomadas con cámaras réflex, sin dejar de aprovechar el poder del iPhone. Uno de sus logros técnicos es que el obturador no tiene retardo: la app ya está grabando imágenes RAW mientras estás encuadrando, así que cuando presionas el botón, ya tiene lista la mejor toma. Ideal para capturar momentos exactos como un perro en movimiento o una pelota entrando en el arco. Muchos fotógrafos no confían en las cámaras del celular porque el software tiende a exagerar la imagen. Colores saturados, sombras aplastadas, reflejos molestos y detalles perdidos por la compresión digital. Apple ha hecho mejoras, pero su app de cámara sigue sin ofrecer controles manuales completos. Tampoco permite disparar con exposición prolongada real ni ajustar el número de imágenes por ráfaga. Project Indigo responde a esa necesidad con un enfoque híbrido: mantiene la sencillez del teléfono, pero entrega resultados dignos de una cámara avanzada. En lugar de aplicar filtros o IA que "inventan" detalles, Indigo capta datos reales desde el sensor y los combina para mejorar la nitidez. Incluso permite usar el movimiento natural de la mano como técnica para captar más perspectiva y obtener fotos más detalladas, algo conocido como "multi-frame super-resolution". Project Indigo ya puede descargarse gratis y viene con funciones únicas que la distinguen de otras apps. Por ejemplo, permite hacer fotos en condiciones de luz muy baja sin necesidad de trípode, gracias a la combinación de 32 cuadros tomados en segundos. También incluye un botón dedicado para fotos de larga exposición, que simula el efecto de obturación prolongada en cámaras réflex: perfecto para capturar cascadas, luces en movimiento o trazos de luz en la noche. Otra función prometedora es la eliminación de reflejos con IA, ideal para fotos detrás de vitrinas o cristales. Y si te gusta editar, las fotos en RAW pueden abrirse directamente en Lightroom con compatibilidad total con los perfiles de color de Adobe. Aunque aún no tiene modo retrato ni video, ya se están desarrollando esas funciones, junto con bracketing de exposición y enfoque. La app también actúa como plataforma de pruebas para futuras funciones de Photoshop y Lightroom. Además, Adobe ya confirmó que la versión para Android “va a llegar seguro”. Las imágenes tomadas con Indigo pueden verse en calidad HDR en una galería oficial alojada en Adobe Lightroom. Eso sí: la visualización óptima requiere una pantalla compatible y usar Google Chrome. Safari puede no mostrar correctamente los colores ni los brillos. Otra novedad técnica es el demosaico avanzado, que reconstruye los colores a partir del sensor de forma más precisa que otras apps. Indigo también ajusta el tono y el color basándose en lo que hay en la escena: sabe cuándo hay una persona en primer plano o cuándo estás fotografiando un cielo al atardecer. En las pruebas realizadas por medios como PetaPixel y CNET, se destacó que el zoom digital de Indigo supera al del...
    Mehr anzeigen Weniger anzeigen
    9 Min.
  • Google integra su IA más potente a YouTube Shorts
    Jun 19 2025
    Google integra su IA más potente a Shorts para crear videos y sonidos por texto Por Félix Riaño @LocutorCo YouTube va a integrar la inteligencia artificial Veo 3 de Google en su formato Shorts. Los creadores van a poder generar videos completos, con imagen y sonido, usando solo texto. ¿Qué pasaría si pudieras crear un video con solo escribir una frase? Eso es justo lo que promete Veo 3, la herramienta de inteligencia artificial más avanzada de Google. Esta nueva función se va a integrar en YouTube Shorts, el formato de video corto que recibe más de 200.000 millones de vistas al día. El anuncio lo hizo el propio CEO de YouTube, Neal Mohan, durante el festival Cannes Lions 2025. Pero hay muchas preguntas: ¿cuánto costará? ¿Habrá deepfakes? ¿Qué pensarán los creadores humanos? ¿Y si el video que ves no lo hizo nadie? YouTube quiere que cualquiera pueda crear videos, incluso sin cámara ni micrófono. Para eso va a usar la tecnología Veo 3, un sistema que transforma texto en videos con sonido. Esta IA ya fue usada en la función Dream Screen, que generaba fondos por texto, pero ahora llega mejorada. Veo 3 puede crear clips de 8 segundos que parecen filmaciones reales. Eso lo hace ideal para Shorts, que permite videos de hasta 60 segundos. Mohan, el CEO de YouTube, dijo que esto va a liberar la creatividad de los creadores y les va a dar nuevas herramientas para contar historias. El problema es que no todo el mundo está feliz con la idea. Muchos creadores temen que la plataforma se llene de videos generados por máquinas, sin alma, sin humor, sin errores humanos. Algunos ya llaman a esto “la avalancha de contenido basura”. Además, Veo 3 podría usarse para hacer deepfakes, es decir, videos falsos que imitan a personas reales. Por eso, YouTube está trabajando con agencias como CAA y con creadores reconocidos para desarrollar herramientas que protejan la imagen de celebridades y personajes públicos. A esto se suma otra preocupación: actualmente Veo 3 solo está disponible pagando el plan AI Ultra, que cuesta 250 dólares y limita la creación a 125 videos cortos al mes. ¿Valdrá la pena para los creadores pequeños? La llegada de Veo 3 no es solo una promesa tecnológica, también es una estrategia para ganarle la carrera a TikTok e Instagram Reels. Shorts se ha convertido en una prioridad para YouTube, que busca atraer a nuevas audiencias. El formato ha crecido 186 % en el último año. Mohan lo describió como “el nuevo Hollywood de los emprendedores”, y destacó que muchos creadores ya están montando sus propios estudios. Con Veo 3, podrían hacer películas de un minuto desde sus celulares. Por ahora, la función se lanzará en los próximos meses y se espera que YouTube adapte el modelo de IA para que produzca videos verticales en alta calidad. Aunque el acceso será limitado al principio, es probable que YouTube libere herramientas gratuitas o reduzca el precio para atraer más creadores. El modelo Veo 3 fue anunciado por Google en 2023 y ha sido mejorado constantemente. Está diseñado para generar videos de 720p con audio incluido, a partir de indicaciones simples. Aunque en su forma original produce videos horizontales, YouTube estaría adaptándolo para que los Shorts no tengan bordes negros. Además, Veo 3 ya ha sido usado en redes para crear contenido viral como "cómo sería Shakespeare como youtuber" o "Napoleón haciendo vlogs". Este tipo de creatividad puede ser divertida, pero también inquietante. Por eso, YouTube trabaja en regulaciones internas para evitar abusos, y aún no ha confirmado si habrá una versión gratuita de esta tecnología. Muchos esperan que Google encuentre un equilibrio entre accesibilidad, calidad y control ético. YouTube va a integrar la inteligencia artificial Veo 3 en Shorts. ¿Será el fin del contenido humano o el inicio de una nueva era?Sigue el pódcast Flash Diario en Spotify para conocer más historias sobre tecnología, ciencia y creatividad digital. BibliografíaHollywood Reporter Engadget Ars Technica The Verge Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    Mehr anzeigen Weniger anzeigen
    7 Min.
  • China prueba cápsula lunar Mengzhou con éxito total
    Jun 18 2025
    China ha probado con éxito la cápsula Mengzhou, diseñada para llevar personas a la Luna. El ensayo probó su sistema de escape en caso de emergencia Por Félix Riaño @LocutorCo El martes 17 de junio, China lanzó con éxito una prueba de emergencia de su cápsula Mengzhou, sin tripulación, en el Centro de Lanzamiento de Jiuquan. Esta cápsula será usada en futuras misiones tripuladas a la Luna. La maniobra consistió en simular un accidente desde la plataforma de lanzamiento, para verificar que la cápsula pueda escapar si ocurre una explosión en tierra. En 20 segundos, el sistema de propulsión la elevó, luego soltó el módulo principal y lo dejó caer suavemente con paracaídas y airbags. ¿Por qué este ensayo podría significar que China le gane a Estados Unidos en la carrera lunar? La cápsula Mengzhou, cuyo nombre significa “barco del sueño”, está diseñada para llevar astronautas chinos a la órbita lunar antes del año 2030. La prueba realizada el 17 de junio a las 12:30 del mediodía (hora de China) consistió en una simulación real de emergencia. Sin usar un cohete, se activaron motores sólidos que empujaron la cápsula hacia arriba. A los 20 segundos, se separó de su torre de escape y descendió con tres paracaídas hasta aterrizar con ayuda de un sistema de bolsas de aire. A las 12:32 ya estaba de vuelta en el suelo. Esta fue apenas la segunda vez que China realiza una prueba de escape desde cero metros de altitud. La anterior había sido en 1998, con la cápsula Shenzhou. Pero Mengzhou es diferente: su sistema de seguridad no depende del cohete, sino que está integrado en la cápsula misma. Esto permite responder con rapidez en caso de una falla grave durante el lanzamiento. Este paso era vital para validar el diseño y seguir con las próximas pruebas, que incluirán un ensayo en pleno vuelo, a mayor altitud y presión atmosférica. Aunque China aún está por detrás de la NASA en misiones lunares, esta cápsula nueva parece estar ganando terreno.Estados Unidos recortó el presupuesto para sus misiones lunares. La NASA enfrenta incertidumbre. El presupuesto propuesto por la Casa Blanca para 2026 elimina el cohete SLS y la cápsula Orion después de la misión Artemis 3, prevista para 2027. Mientras tanto, China avanza en el desarrollo de Mengzhou, el cohete Long March 10 y un módulo lunar, que podrían permitirle llegar primero a la Luna en esta nueva era. Mengzhou puede llevar hasta siete astronautas en misiones en órbita baja, o tres hasta la órbita lunar. Es parcialmente reutilizable, y ya fue probada en 2020 con un vuelo suborbital. Su versión lunar pesará unas 26 toneladas. Este sistema ha sido diseñado para cumplir con estándares internacionales y funcionar tanto con estaciones espaciales como en misiones lunares. El cohete Long March 10 tendrá tres etapas de 5 metros de diámetro, con motores de queroseno y oxígeno líquido. Está en construcción en Wenchang, en la isla de Hainan. Las plataformas de lanzamiento ya están siendo instaladas. El sistema completo de la misión lunar incluirá un aterrizador llamado Lanyue y, posiblemente, una combinación con el Long March 5B para pruebas atmosféricas. Según la Oficina de Ingeniería Espacial Tripulada de China (CMSEO), todos estos elementos están siendo desarrollados en paralelo. El objetivo es claro: tener una misión tripulada lista antes del año 2030. China ya probó el diseño de reingreso de Mengzhou a gran velocidad hace cinco años, y ahora se enfoca en demostrar que puede proteger vidas humanas desde el despegue hasta el regreso. China dio un paso firme hacia la Luna con la prueba de emergencia de Mengzhou. ¿Quién ganará esta nueva carrera lunar? Comenta y escucha más en el pódcast Flash Diario.📚 Bibliografía 📚Space.com – Josh Dinner CGTN SpaceNews – Andrew Jones Interesting Engineering – Neetika Walter Xinhua Universe Magazine Conviértete en un seguidor de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.
    Mehr anzeigen Weniger anzeigen
    6 Min.