Folgen

  • E012_Ingeniería de lo Imposible: La Máquina de Litografía EUV
    Jan 11 2026

    Este episodio de Bimpraxis se adentra en la ingeniería detrás del producto comercial más complejo jamás construido: la máquina de litografía ultravioleta extrema (EUV) de ASML, la única tecnología capaz de salvar la Ley de Moore y seguir reduciendo el tamaño de los transistores. Analizamos cómo funciona este sistema, considerado imposible durante 30 años, el cual opera mediante un proceso que implica disparar láseres a 50,000 gotas de estaño microscópicas por segundo para generar un plasma 40 veces más caliente que la superficie del Sol, todo con el fin de imprimir patrones nanoscópicos en los microchips.

    Descubrimos los desafíos técnicos casi inconcebibles que se superaron, como la fabricación de los espejos más lisos del universo —donde una imperfección del tamaño de una carta sobre la superficie de la Tierra sería inaceptable— y la coordinación de cientos de miles de componentes con una precisión atómica. Acompáñanos a explorar la historia de persistencia de científicos e ingenieros que, enfrentando el escepticismo global y riesgos financieros enormes, lograron crear la herramienta esencial que hoy impulsa toda la tecnología moderna, desde nuestros teléfonos inteligentes hasta la inteligencia artificial.

    Mehr anzeigen Weniger anzeigen
    18 Min.
  • APIcultores vs Tractoristas del campo contextual: El futuro híbrido de las interconexiones IA
    Jan 10 2026

    En este episodio exploramos la evolución de la conectividad digital a través de dos analogías clave: los Apicultores y los Tractoristas. Mientras el apicultor (API: Application Programming Interface) realiza un trabajo artesanal y preciso conectando aplicaciones “flor por flor” mediante reglas específicas para extraer datos, el tractorista del contexto (MCP: Model Context Protocol) maneja maquinaria pesada estandarizada que prepara todo el terreno para que la Inteligencia Artificial opere de forma autónoma y escalable. Analizaremos cómo esta tecnología permite pasar de la configuración manual de “cables” a un modelo donde la IA descubre y utiliza herramientas por sí misma, actuando como un “traductor universal” que elimina la fricción técnica.

    Sin embargo, la verdadera potencia reside en la hibridación de ambos mundos, ya que el tractorista necesita inevitablemente la infraestructura cuidada por el apicultor. Discutiremos por qué el MCP no elimina a la API, sino que funciona como una “cabina” inteligente que envuelve las conexiones tradicionales, permitiendo unir la robustez y previsibilidad de los datos estructurados con la flexibilidad de los agentes modernos. Descubre en qué casos te conviene subirte al tractor para automatizar tareas complejas sin perder la precisión y el control que ofrece la cosecha manual de datos.

    Mehr anzeigen Weniger anzeigen
    17 Min.
  • La IA ya tiene un servicio diplomático para intermediar por ti ¿Qué son los MCP (Model Context Protocol)?
    Jan 9 2026

    En este episodio exploramos el Model Context Protocol (MCP), la tecnología que actúa como el nuevo servicio diplomático de la Inteligencia Artificial. Hasta ahora, los grandes modelos de lenguaje eran genios aislados, encerrados en su propio conocimiento congelado; el MCP rompe este aislamiento proporcionando un “lenguaje seguro y estandarizado” que funciona como un traductor universal entre la IA y el mundo exterior. Veremos cómo este protocolo elimina la necesidad de crear integraciones frágiles y personalizadas para cada servicio, permitiendo que tu IA negocie directamente con tus bases de datos y aplicaciones favoritas sin barreras lingüísticas técnicas.

    Descubre cómo esta innovación transforma a los chatbots pasivos en agentes intermediarios capaces de actuar en tu nombre. Al igual que un cuerpo diplomático sigue normas estrictas, el MCP permite a la IA “descubrir” dinámicamente qué herramientas tiene disponibles en tiempo real y ejecutar acciones —desde gestionar tickets en Jira hasta consultar informes de ventas— operando siempre bajo rigurosos protocolos de permisos y seguridad que tú controlas. Acompáñanos para entender el futuro de una IA que no solo charla, sino que presenta sus credenciales y opera eficazmente en el ecosistema digital real.

    Mehr anzeigen Weniger anzeigen
    15 Min.
  • Cómo ChatGPT elige la siguiente palabra
    Jan 8 2026

    En este episodio, desmitificamos la aparente “magia” detrás de los Grandes Modelos de Lenguaje (LLM) para entender qué sucede realmente en el milisegundo que transcurre desde que enviamos un prompt hasta que aparece el texto. Contrario a la intuición, descubrimos que el modelo no tiene una respuesta predefinida ni un plan oculto; genera el contenido una pieza a la vez, construyendo la respuesta sobre la marcha mediante un proceso puramente probabilístico y no a través de un entendimiento consciente. Analizamos cómo el sistema evalúa constantemente más de 100.000 opciones posibles para elegir el siguiente fragmento de información.

    Nos adentramos en la arquitectura técnica desglosando las cinco etapas críticas del proceso: desde la tokenización, que convierte palabras en secuencias numéricas, hasta los embeddings, que transforman esos números en vectores de significado capaces de entender relaciones semánticas (como la cercanía entre “Python” y “JavaScript”). Exploramos el funcionamiento del Transformer y su mecanismo de “atención”, que permite al modelo entender el contexto de una frase, y detallamos cómo parámetros como la temperatura y el sampling controlan la delgada línea entre una respuesta precisa y una incoherente.

    Finalmente, discutimos las implicaciones prácticas de esta mecánica para el uso profesional de la IA. Explicamos por qué ocurren las “alucinaciones” —el modelo prioriza patrones de plausibilidad sobre la verdad fáctica— y por qué los límites de contexto son una restricción computacional cuadrática inevitable y no una decisión arbitraria del software. Concluimos que comprender que la IA es un mecanismo de predicción y no una fuente de verdad es esencial para controlar mejor sus resultados en tareas técnicas y de programación.

    Mehr anzeigen Weniger anzeigen
    18 Min.
  • Karen Hao: OpenIA funciona como un nuevo imperio colonial
    Jan 7 2026

    Gustavo Entrala entrevista a la investigadora Karen Hao, quien expone una visión crítica sobre el ascenso de OpenAI y la industria de la inteligencia artificial. Hao sostiene la tesis de que estas compañías operan como nuevos imperios coloniales que monopolizan el conocimiento, explotan mano de obra barata en países en desarrollo y consumen recursos naturales de forma alarmante. La autora revela que dentro de estas empresas existe un fervor cuasi religioso respecto a la creación de una inteligencia superior, lo cual justifica decisiones éticas cuestionables. Además, el contenido detalla la compleja relación entre Sam Altman y Elon Musk, así como la transición de la organización hacia un modelo lucrativo. Finalmente, el texto advierte sobre los costes humanos y ambientales ocultos detrás del desarrollo tecnológico actual. Por último, Hao subraya la importancia de mantener un pensamiento crítico y la acción colectiva para evitar que estas corporaciones controlen el futuro global.

    Karen Hao es una reconocida periodista, ingeniera mecánica por el MIT y experta en inteligencia artificial (IA) que escribe para medios como The Atlantic, dirige la serie AI Spotlight del Pulitzer Center y ha trabajado para The Wall Street Journal y MIT Technology Review, enfocándose en el impacto social de la IA y desmitificando la tecnología para el público general, siendo considerada una de las personas más influyentes en el campo de la IA.

    Mehr anzeigen Weniger anzeigen
    16 Min.
  • Qué es el Nested Learning que plantea Google
    Jan 6 2026

    Un grupo de investigadores de Google Research ha presentado un artículo científico titulado “Nested Learning: The Illusion of Deep Learning”, el cual propone una arquitectura revolucionaria para superar las limitaciones actuales de la inteligencia artificial. El texto explica que los modelos vigentes, basados en Deep Learning, sufren de “amnesia anterógrada” porque sus conocimientos se congelan tras el entrenamiento y no pueden aprender en tiempo real sin corromperse. La nueva propuesta sugiere imitar el cerebro humano mediante la arquitectura “Hope”, la cual utiliza capas de aprendizaje rápido y lento para que la IA procese información nueva constantemente. Según la fuente, este avance permitiría que modelos como ChatGPT o Gemini evolucionen de ser simples “loros cibernéticos” a sistemas capaces de razonar y mejorar de forma autónoma. Si este enfoque de aprendizaje anidado tiene éxito, podría marcar el inicio de la Inteligencia Artificial General (AGI), alcanzando un nivel de capacidad intelectual similar al humano. El autor subraya que, a diferencia de otras propuestas, este estudio ya ha sido revisado por pares y aprobado por la comunidad científica internacional.

    #AI #IA #NestedLearning #DeepMind #GoogleResearch

    Mehr anzeigen Weniger anzeigen
    20 Min.