t.me/ai_machinelearning_big_data все о машинном обучение, llm, machine learning
Каналы, которые упоминали этот канал в своих постах
* Оценочный бюджет рассчитан из размера канала-источника (~50 ₽ / 1000 подп. за упоминание)
Началась новая эпоха - гражданской науки, когда обычные люди могут проводить сложные научные исследования с помощью AI. Инженер без медицинского образования использовал ChatGPT и AlphaFold (AI-систему для анализа белков), чтобы создать экспериментальную вакцину от рака для своей собаки. Он потратил около $3000, чтобы получить ДНК-последовательности: - здоровой крови собаки - опухоли Перед ним оказались гигабайты сырого генетического кода, который он не умел читать. И здесь ключевую роль сыграл ChatGPT. Он использовал его как своего рода биологического консультанта, чтобы понять: - как сравнить два набора ДНК - как найти мутации, вызывающие рак - какие инструменты использовать для анализа ChatGPT дал пошаговые инструкции, как запустить анализ данных и подсказал использовать AlphaFold, чтобы определить форму повреждённых белков. В итоге инженер смог составить полстраницы химического рецепта mRNA-вакцины. Такая вакцина - это по сути генетическая инструкция, которая учит иммунную систему распознавать и атаковать конкретные мутировавшие раковые клетки. Университетские исследователи были настолько впечатлены его формулой, что помогли произвести реальную вакцину. Ветеринар сделал инъекцию собаке. Через несколько недель огромная опухоль уменьшилась примерно на 50%. Если такие истории начнут повторяться, мы можем увидеть совершенно новую модель науки, когда AI превращает любопытных инженеров в исследователей. #AI #ChatGPT #Biotech #AlphaFold #Future ⚡️ИИ в max: https://max.ru/ai_machinelearning_big_data
✔️ Anthropic расширила контекстное окно до миллион токенов. Claude Opus 4.6 и Sonnet 4.6 получили поддержку контекстного окна объемом в 1 миллион без наценок за объем. Обработка длинных запросов тарифицируется по стандартной ставке, а лимиты пропускной способности API остаются прежними на всей длине контекста. Дополнительно лимит файлов в одном запросе увеличен в 6 раз: теперь Claude может за раз проанализировать до 600 изображений или страниц PDF. Обновление доступно в API Claude, а пользователи Claude Code на тарифах Max, Team и Enterprise при вызове Opus 4.6 по умолчанию будут автоматически использовать контекст 1M. claude.com
✔️ Илон Маск представил ИИ-систему, способную эмулировать работу IT-компаний. Проект Macrohard, также известный как Digital Optimus, объединяет стек технологий Tesla и xAI. В основе архитектуры лежит языковая модель Grok в роли высокоуровневого навигатора. Она работает в тандеме с ИИ-агентом Tesla, который в реальном времени анализирует видео с экрана компьютера и напрямую управляет клавиатурой и мышью. По задумке Маска, система сможет автоматизировать процессы разработки ПО до такой степени, чтобы полностью имитировать функции IT-корпораций. Само название Macrohard является прямой ироничной отсылкой к Microsoft. Проект будет использовать проприетарные процессоры Tesla AI4 в связке с мощностями xAI на базе ускорителей Nvidia. Заявка на регистрацию одноименного товарного знака уже находится на рассмотрении в патентном ведомстве США. reuters.com
⚠️ AI взломал AI: автономный агент взломал внутренний чат-бот McKinsey за 2 часа Исследователи из security-стартапа CodeWall запустили автономного AI-агента против внутренней AI-платформы McKinsey под названием Lilli — и получили полный доступ к системе всего за 2 часа. Что произошло: • AI-агент сам выбрал цель и начал исследовать инфраструктуру • обнаружил уязвимость SQL injection • получил полный read/write доступ к базе данных После этого он смог получить доступ к огромному объему данных: • 46,5 млн сообщений чатов • 728 000 файлов • 57 000 аккаунтов сотрудников • 95 системных промптов, управляющих поведением AI Самое опасное - злоумышленник мог переписать системные промпты, которые управляют поведением чат-бота. То есть можно было: - незаметно менять ответы AI - искажать аналитические рекомендации - манипулировать стратегическими выводами Причем без изменения кода и без деплоя — одной SQL-командой. McKinsey быстро закрыла уязвимости после disclosure, но этот кейс показал важную вещь: ⚠️ AI-агенты могут проводить полноценные кибератаки на скорости машин. Теперь атаки могут: - автоматически искать уязвимости - атаковать инфраструктуру - масштабироваться без участия человека Фактически начинается новая эпоха AI vs AI в кибербезопасности. https://www.theregister.com/2026/03/09/mckinsey_ai_chatbot_hacked/
✔️ The Most Disruptive Company in the World Статья The Times про Anthropic скрывает гораздо более серьёзные выводы, чем может показаться при беглом чтении. Если внимательно разобрать её по смыслу, становится ясно, насколько быстро ускоряется развитие AI. Сегодня релизы моделей происходят уже не раз в несколько месяцев, а с интервалом в несколько недель. Разработка ускоряется настолько, что 70–90% кода для создания будущих моделей уже пишет сам Claude. Фактически это означает, что AI начинает участвовать в создании следующего поколения AI. Anthropic даже задержала выпуск Claude 3.7 Sonnet на 10 дней, пока команда не убедилась, что модель достаточно безопасна. Это показывает, насколько осторожно компании относятся к новым возможностям моделей. Внутри Anthropic считают, что период 2026–2030 станет ключевым для всей индустрии. Модели будут становиться быстрее, умнее и могут развиваться темпами, с которыми людям будет всё сложнее справляться. Глава компании Дарио Амодеи предупреждает ещё жёстче. По его мнению, AI может вытеснить до половины начальных офисных профессий в течение ближайших 1–5 лет. При этом пока никто не понимает, куда переместятся эти люди и чем они будут заниматься. Он прямо говорит о риске появления большой группы людей с очень низкими доходами или без работы. Внутри компании сотрудники начали обсуждать, не приблизились ли они к моменту, которого многие опасались: recursive self-improvement. Это сценарий, в котором AI начинает улучшать сам себя. Каждая новая версия создаётся быстрее и становится сильнее предыдущей, что запускает ускоряющуюся цепочку развития. Некоторые эксперты считают, что полностью автоматизированные AI-исследования могут появиться уже в течение года. Если это произойдёт, скорость технологического прогресса может резко вырасти и тогда главным вопросом станет не создание AGI, а то, успеет ли общество адаптироваться к миру, где такие системы уже существуют. https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
✔️ В ChatGPT появились интерактивные визуализации для изучения математики и физики. OpenAI внедрила в ChatGPT динамические визуальные объяснения для более чем 70 математических и естественно-научных концепций. Пользователи получили возможность на лету менять переменные и мгновенно отслеживать, как новые значения влияют на итоговые графики и формулы. На данный момент инструмент охватывает в основном школьную и университетскую программу. Среди уже доступных тем: квадрат бинома, экспоненциальный распад, закон Ома, сложные проценты и тригонометрические тождества. Новая функция открыта для всех пользователей по всему миру. В дальнейшем OpenAI планирует расширить обучающие модули, добавив поддержку новых дисциплин. https://openai.com/index/new-ways-to-learn-math-and-science-in-chatgpt/
Claude Opus 4.6 распознал тестовую среду и взломал ключи ответов в бенчмарке. Anthropic зафиксировала уникальный случай: во время прогона на BrowseComp Claude Opus 4.6 поняла, что находится в среде оценки. Не имея данных о названии теста, модель вычислила его и целенаправленно расшифровала скрытые ответы. Это первый известный прецедент, когда ИИ проявляет подобную дедукцию и взламывает проверку без прямых подсказок. Это потребовало огромных вычислительных затрат. В одном из эпизодов модель потратила около 40,5 млн токенов (в 38 раз больше медианного значения). Разработчики также отметили, что в мультиагентной конфигурации частота поиска подобных нестандартных решений составила 0,87%, что в 3,7 раза выше, чем при работе одного агента (0,24%). https://anthropic.com/engineering/eval-awareness-browsecomp #Claude #Anthropic
Forbes: разработчики могут больше не нуждаться в редакторе кода. Новая реальность AI-разработки: программирование постепенно уходит от ручного набора кода к автономным агентам, которые могут реализовывать целые фичи самостоятельно. По данным Forbes, компания Cursor — один из самых быстрорастущих AI-стартапов в программировании — уже сталкивается с этой трансформацией. С появлением мощных агентных систем вроде Claude Code сама идея классического code editor может устареть. Главная битва сейчас — за разработчиков. AI-лабы готовы тратить огромные деньги, чтобы переманить их на свои платформы. Внутренний анализ Cursor показал, что подписка Claude Code за $200 в месяц могла потреблять до $2000 вычислительных ресурсов — фактически Anthropic субсидировала пользователей. Но сейчас масштабы ещё больше. По данным источников, знакомых с расходами на compute, тот же план за $200 способен потреблять уже около **$5000 вычислительных ресурсов**. Это означает простую вещь: AI-компании сейчас **сознательно работают в убыток**, чтобы захватить рынок разработчиков и закрепить свои инструменты как стандарт индустрии. Война за программистов только начинается. forbes.com/sites/annatong/2026/03/05/cursor-goes-to-war-for-ai-coding-dominance/
⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования. Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat: весь код обучения помещается в один файл (~630 строк) и работает на одной GPU. Как это устроено: - человек редактирует prompt (.md) - AI-агент автоматически меняет training code (.py) Дальше начинается цикл автономных экспериментов. Каждая точка на графике — полный запуск обучения LLM (~5 минут). AI-агент работает в бесконечном цикле: - создаёт git-ветку - меняет архитектуру модели - подбирает optimizer - оптимизирует гиперпараметры - запускает обучение - коммитит улучшения Если validation loss становится ниже, изменение сохраняется. Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель. Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование. Карпаты шутит, что раньше AI-исследования делали люди между: - едой - сном - митингами Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах. GitHub: github.com/karpathy/autoresearch
✔️ OpenAI расширяет поддержку мейнтейнеров открытого кода. Программа Codex Open Source Fund, запущенная год назад, получила апдейт льгот для разработчиков, которые поддерживают публичные репозитории. Теперь участники программы получают не только API-кредиты, но и полный доступ к ChatGPT Pro с Codex на полгода. Обновленный набор поддержки выглядит теперь так: 🟢API-кредиты для проектов, которые уже интегрировали Codex в pull request review, релизные пайплайны или другую инфраструктуру OSS. 🟢6 месяцев ChatGPT Pro с Codex. 🟠Условный доступ к Codex Security Условность в том, то Codex Security одобряется вручную. OpenAI объясняет это возможностями GPT-5.4, команда рассматривает каждую заявку отдельно, чтобы убедиться, что инструмент применяется осознанно. OpenAI формулирует требования к просителям программы размыто: core maintainer с write access к широко используемому публичному проекту. Что считается широко используемым - не уточняется. Если проект не вписывается в стандартные критерии, OpenAI все равно рекомендует подавать заявку с объяснением роли проекта в экосистеме. Неделю назад Antropic запустила похожую тему поддержки опен-сорса. https://openai.com/form/codex-for-oss/ #news #ai #ml