AWS на русском Titelbild

AWS на русском

AWS на русском

Von: Viktor Vedmich
Jetzt kostenlos hören, ohne Abo

Über diesen Titel

Подкаст ”AWS на русском”. Говорим про использование облачных технологий, построение serverless приложений, развертывание kubernetes и внедрение ML/AI и не только. Лучшие практики и свежие новости из мира AWS в формате интервью на русском языке. Смотрите и слушайте #awsнарусскомViktor Vedmich
  • 065. ClickHouse на AWS: скорость данных для AI и аналитики
    Aug 29 2025

    Думаете, колоночная БД — это «узкая ниша» для дата-гуру? Знаете ли вы, что ClickHouse ставит рекорды по вставке данных и теперь разворачивается в AWS… одним кликом?

    В новом выпуске подкаста «AWS на русском» говорим с Дмитрием Павловым (ClickHouse) о том, как построить молниеносную аналитику и подготовить данные для LLM:

    🔹 Что такое ClickHouse и зачем он бизнесу

    🔹 Marketplace в AWS: биллинг одной кнопкой

    🔹 Real-time дашборды — для Tesla, OpenAI и Anthropic

    🔹 ClickHouse + MCP: интеграция, которую клиенты сразу начали юзать

    🔹 Уроки внедрения: метаданные, контекст и cost optimization

    💡 Инсайт: подробное описание таблиц и бизнес-процессов снижает порог входа так сильно, что даже нетехнари начинают писать SQL-запросы сами.

    🎧 Доступно на любимой платформе:

    • YouTube, Podbean, Apple Podcasts, Яндекс Музыка, Spotify, RSS (ссылки ниже)

    💬 Какие метрики вашей системы сегодня тормозят больше всего — и попробовали бы вы мигрировать их в ClickHouse?

    #ClickHouse #AWS #DataAnalytics #AI #Database #Подкаст #AWSнаРусском

    Навигация (Podbean)

    (0:00) Introduction

    (0:59) Что такое ClickHouse

    (6:02) ClickHouse в AWS Marketplace

    (14:59) Real-time дашборды клиентов

    (23:45) ClickHouse + AI/LLM

    (36:06) Lessons learned и cost optimization

    (48:09) Итоги и планы

    Навигация (YouTube)

    00:00:00 – Начало

    00:00:59 – Что такое ClickHouse

    00:06:02 – ClickHouse в AWS Marketplace

    00:14:59 – Real-time дашборды клиентов

    00:23:45 – ClickHouse + AI/LLM

    00:36:06 – Lessons learned и cost optimization

    00:48:09 – Итоги и планы

    YouTube: https://www.youtube.com/watch?v=IhDf_c1icRE&list=PLxtckYH8Cdy_WT5tcCITt_f61Zr2qQJbL

    Podbean: https://awsinrussian.podbean.com/

    Apple Podcast: https://podcasts.apple.com/by/podcast/aws-%D0%BD%D0%B0-%D1%80%D1%83%D1%81%D1%81%D0%BA%D0%BE%D0%BC/id1600771698

    Яндекс.Музыка: https://music.yandex.ru/album/20088544

    Spotify: https://open.spotify.com/show/4kOoih4FvHqyK5mLF3E42J

    RSS: https://feed.podbean.com/awsinrussian/feed.xml

    Mehr anzeigen Weniger anzeigen
    49 Min.
  • 064. MCP: Как подключить любой инструмент к AI за 5 минут?
    Aug 7 2025

    Думаете, интеграция искусственного интеллекта с вашими внутренними системами — это всегда сложно и долго? А что, если существует стандарт, который упрощает этот процесс до уровня подключения USB?

    В новом выпуске подкаста "AWS на русском" вместе с Фёдором Павловым и Михаилом Голубевым разбираемся, что такое Model Context Protocol (MCP) и как он меняет правила игры для AI-приложений.

    🔹 Что такое MCP? Объясняем на простом примере — это как Telegram-боты, только для больших языковых моделей (LLM).

    🔹 Клиент или сервер? Разбираемся, с какой стороны начать разработку и почему вы, скорее всего, будете писать сервер.

    🔹 Безопасность прежде всего: Кто отвечает за защиту от prompt injection и как обезопасить свои инструменты?

    🔹 Практическое применение: Обсуждаем, как компании вроде PayPal уже используют MCP для расширения своих возможностей.

    💡 Инсайт: MCP превращает "M×N проблему" интеграции (M приложений × N инструментов) в гораздо более простую "M+N проблему", создавая единый стандарт для взаимодействия.

    🎧 Слушайте на любимой платформе:

    • YouTube

    • Podbean

    • Apple Podcast

    • Яндекс.Музыка

    • Spotify

    • RSS

    💬 Какие инструменты вы бы хотели подключить к AI в первую очередь? Делитесь идеями в комментариях!

    Навигация для Podbean: (0:00) Introduction: почему мы снова говорим про MCP? (2:45) Что такое MCP: клиент-серверный протокол для LLM (6:47) Как начать разработку: клиентская или серверная часть? (7:47) Аналогия с USB-C и решение "M x N проблемы" интеграции (12:53) Как на практике подключить MCP-сервер? (17:58) Практические примеры: Agentic Coding и доступ к файлам (19:45) Кто уже использует MCP: пример с PayPal (23:36) Вопросы безопасности и Prompt Injection (24:33) MCP — это замена агентов? (29:53) Анонс тем для следующего выпуска: Prompt Caching, CLine и другие

    Навигация для YouTube: 00:00:00 - Вступление: почему мы снова говорим про MCP? 00:02:45 - Что такое MCP: клиент-серверный протокол для LLM 00:06:47 - Как начать разработку: клиентская или серверная часть? 00:07:47 - Аналогия с USB-C и решение "M x N проблемы" интеграции 00:12:53 - Как на практике подключить MCP-сервер? 00:17:58 - Практические примеры: Agentic Coding и доступ к файлам 00:19:45 - Кто уже использует MCP: пример с PayPal 00:23:36 - Вопросы безопасности и Prompt Injection 00:24:33 - MCP — это замена агентов? 00:29:53 - Анонс тем для следующего выпуска: Prompt Caching, CLine и другие

    Mehr anzeigen Weniger anzeigen
    32 Min.
  • 063. Расширяем контекст LLM: от RAG до агентов — как победить ограничения AI?
    Jul 8 2025

    Думаете, увеличение контекстного окна до миллионов токенов решает все проблемы? На самом деле модели всё равно теряют фокус, упускают важные детали в середине и страдают от информационной перегрузки!

    В этом выпуске обсуждаем:

    • 🔹 Retrieval-Augmented Generation (RAG): как эта технология борется с "галлюцинациями" и устаревшими данными, обогащая ответы AI.

    • 💡 GraphRAG: почему семантические графы — это следующий шаг в понимании сложных связей в данных, и как это меняет игру.

    • 🎧 Tools и Function Calling: как научить модель взаимодействовать с внешним миром, получать актуальную информацию и выполнять действия через API.

    • 💬 AI-агенты: как мы переходим от простых диалоговых сценариев к автономным системам, способным самостоятельно планировать и выполнять задачи.

    Этот выпуск будет особенно полезен разработчикам и архитекторам, которые хотят создавать более умные и автономные AI-решения, используя такие инструменты, как Amazon Bedrock.

    💡 Узнаете, почему Nova Micro в 27 раз дешевле популярных моделей и как правильно декомпозировать документы для векторного поиска с учётом прав доступа.

    Навигация для Podbean: (0:00) Introduction (3:15) Проблема ограниченного контекста в LLM (8:40) Что такое RAG и как он обогащает запросы? (15:20) GraphRAG: новый уровень работы с данными через графы (22:10) Tools и Function Calling: как научить LLM действовать? (28:55) От диалоговых флоу к автономным AI-агентам (35:30) Анонс следующего эпизода: что такое MCP?

    Навигация для YouTube: 00:00:00 - Начало 00:03:15 - Проблема ограниченного контекста в LLM 00:08:40 - Что такое RAG и как он обогащает запросы? 00:15:20 - GraphRAG: новый уровень работы с данными через графы 00:22:10 - Tools и Function Calling: как научить LLM действовать? 00:28:55 - От диалоговых флоу к автономным AI-агентам 00:35:30 - Анонс следующего эпизода: что такое MCP?

    🎧 Слушайте на любимой платформе:

    • YouTube

    • Podbean

    • Apple Podcast

    • Яндекс.Музыка

    • Spotify

    • 💬 Какие подходы к расширению контекста используете вы? Пробовали Graph RAG в продакшене?

    #AWS #AI #RAG #GraphRAG #LLM

    Mehr anzeigen Weniger anzeigen
    41 Min.
Noch keine Rezensionen vorhanden