Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2 Это тестовый пост #2
Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1 Это тестовый пост #1
Почему джуны и миддлы не могут найти работу в 2025? 😭Знакомая картина? Отправил 500 откликов за неделю — ни одного ответа. Наконец позвонил HR, назначили собес, а ты уже трясёшься от страха: "Сейчас поймут, что я ничего не знаю".Расслабься. Дело не в том, что ты плохой разработчик. Просто правила игры изменились в 2025 году, а большинство об этом не знает 🤑Этими инсайтами поделился Сергей — основатель Академии Python, ментор, который за 2 года помог 200+ человек получить необходимые навыки и офферы на рынке. Сам прошёл путь от нуля до потолка по зарплате, провёл сотни собеседований с обеих сторон. Его ученики находят работу в среднем за 1,5 месяца после выпуска со средним окладом 200к+ 😘Вот что реально происходит в 2025: на одну вакансию приходят сотни откликовИ первым их смотрит не живой человек, а робот или HR, который просто "жмет 2 кнопки" и фильтрует ваши резюме. Да, вот так обычная программа решает и нежелание HR работать решают, дойдёт ли твоё резюме до тимлида.Написал в резюме "Postgres" вместо "PostgreSQL"? Пролетел. Сделал красивый дизайн в две колонки? Робот не смог распарсить — в корзину. HR не захотел потратить хотя бы 1 минуту на твое резюме — исход тот жеЧто делать прямо сейчас:Открой хотя бы 10-20 вакансий, на которые хочешь откликнуться. Выпиши все технологии, которые повторяются. Docker, CI/CD, Git, REST API — всё это должно быть в твоём резюме точь-в-точь как в вакансии.И забудь про креативные шаблоны. Простая структура = робот поймёт = HR увидит.Переупакуй свой опытВместо "Пет-проект: парсер новостей" напиши "Разработал сервис агрегации новостей с асинхронным сбором данных". Уже звучит как коммерческий опыт, правда?Делал мелкий фриланс? Это "опыт коммерческой разработки". Участвовал в хакатоне? "48-часовой спринт по разработке MVP" 🤔Перестань бояться собеседований80% кандидатов сливаются не на технических вопросах, а от собственного страха. Вместо "я на экзамене" думай "я пришёл поговорить о работе или потренироваться". Не знаешь ответ на вопрос? Проговори ход мысли: "С этой технологией не работал, но решал похожую задачу вот так..."Главное — не паникуй и не замыкайся.Работай системно, а не хаотично30 минут в день — это имитация учёбы. Чтобы реально прогрессировать, нужно 2-4 часа сфокусированной работы.Веди простую табличку: дата отклика, компания, результат. И обязательно записывай, на каких вопросах "поплыл" — это покажет слабые места.Хватит полировать пет-проекты до идеала. Работает по README? Достаточно. Лучше потрать время на подготовку к собесам.Но это лишь верхушка айсберга. Реальность такова: большинство кандидатов сливаются на одних и тех же вопросах, которые HR и техлиды задают из раза в раз.Первый шаг — изучить те самые вопросы, на которых сыплется 80% middle Python разработчиков. Зная их заранее, ты перестанешь бояться собесов и начнёшь их уверенно проходить.👉 Напиши Сергею "Хочу вопросы" — и получи эту базу.⏰ Бонус для быстрых: те, кто напишут в течение 24 часов после этого поста, получат еще и пошаговый алгоритм трудоустройства до получения оффера — систему, позволяющую найти работу за 1,5 месяца вместо полугода попыток 💪
Отдел разработки систем искусственного интеллекта Alibaba Qwen продуктивно провёл это лето, выпустив целый ряд моделей, которые не уступают, а то и превосходят аналоги ведущих американских лабораторий, в том числе Google, OpenAI и Anthropic. Крупнейшим проектом стала большая языковая модель Qwen3-Max-Preview (Instruct) с более чем 1 триллионом параметров.
Источник изображения: Alibaba
Параметры — это внутренние настройки, которые управляют поведением большой языковой модели, и чем их больше, тем обычно мощнее модель. Есть версия, что примерно то же число параметров у OpenAI GPT-4o, но в последнее время многие ведущие лаборатории ИИ стали выпускать модели меньшего размера, так что решение авторов Qwen увеличить этот показатель примечательно. Опубликованные китайскими разработчиками результаты тестов Qwen-3-Max-Preview указывают, что она превосходит предыдущую флагманскую модель компании Qwen3-235B-A22B-2507 и выступает серьёзным конкурентом другим ведущим моделям во всей отрасли. В тестах SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2, and LiveBench (20241125) новая Qwen3-Max-Preview держится стабильно выше Claude Opus 4, Kimi K2 и Deepseek-V3.1.
Новая модель уже доступна на собственном сайте разработчика Qwen Chat, через API в Alibaba Cloud, на платформах OpenRouter и AnyCoder. В отличие от других систем Alibaba, новая Qwen3-Max-Preview пока не доступна по лицензии с открытым исходным кодом, и для её подключения к приложениям разработчикам пока придётся довольствоваться платным API самой компании или её партнёров. На практике модель реже даёт сбои в таких задачах с подвохом как, например, сравнение одинаковых чисел или подсчёт количества заданных букв в указанном слове — не все современные ИИ пока на это способны. На платформе Qwen Chat она также работает быстрее, чем ChatGPT.
Источник изображения: Alibaba
Alibaba Qwen3-Max-Preview поддерживает контекстное окно длиной 262 144 токенов, максимальный объём запроса — 258 048 токенов, максимальная длина ответа — 32 768 токенов. Поддерживается кеширование контекста, что помогает оптимизировать производительность при длительных сессиях. Модель предназначается для сложных рассуждений (но режим «Мышление» в Qwen Chat пока недоступен), написания программного кода, обработки структурированных форматов данных, включая JSON, а также для задач творческого характера. Она одинаково эффективна в диалогах на разнообразные темы и в работе в качестве агента; ей могут пользоваться корпоративные клиенты и исследовательские лаборатории.
Стоимость работы с Alibaba Qwen3-Max-Preview через API в Alibaba Cloud зависит от количества токенов:
0–32 тыс. токенов — $0,861 за 1 млн входящих и $3,441 за 1 млн исходящих токенов;32 тыс.–128 тыс. токенов — $1,434 за 1 млн входящих и $5,735 за 1 млн исходящих токенов;128 тыс.–252 тыс. токенов — $2,151 за 1 млн входящих и $8,602 за 1 млн исходящих токенов.
В соцсетях анонс Alibaba Qwen3-Max-Preview вызвал бурную реакцию. Авторы проекта отметили, что им удалось увеличить масштаб модели ИИ до 1 трлн параметров, и работа продолжается; более того, на предстоящей неделе они намереваются выпустить что-то ещё. Некоторые ограничения на длину контекста связаны с интерфейсом чата, а не особенностями самой модели, добавили они, и уже «в разработке» находится режим рассуждений для неё. Первые испытавшие модель пользователи выразили удовлетворение полученными в ходе начальных тестов результатами; некоторые заинтересовались, как она будет решать задачи, требующие сложных логических рассуждений.
Источник изображения: x.com/_akhaliq
По запросу руководителя направления развития машинного обучения Ахсена Калика (Ahsen Khaliq) модель Alibaba Qwen3-Max-Preview построила на платформе AnyCoder воксельное изображение — модель сада в стиле Minecraft. Она, обратили внимание другие экспериментаторы, справилась с предложенными с арифметическими задачами, решила математическую «головоломку 24» и даже некую задачу, перед которой спасовали такие тяжеловесы как рассуждающая OpenAI GPT-5 и Google Gemini 2.5 Pro. Получив сложный запрос, она, как показывают наблюдения, переходит в похожий на рассуждения режим, в котором строит структурированные пошаговые ответы.
Для корпоративных клиентов ценность Qwen3-Max-Preview будет определяться не бенчмарками, а тем, как она на практике справляется с конкретными задачами. Располагая триллионом параметров, она меньше нуждается в постоянной тонкой настройке при развёртывании в приложениях, но сдерживающим фактором для бизнес-клиентов может стать многоуровневая система ценообразования. Сильными её сторонами является схожесть API с интерфейсом OpenAI и поддержка кеширования. Следует учитывать, что Qwen3-Max-Preview, как видно из названия, пока является предварительной версией модели, и поспешное её развёртывание может быть сопряжено с рисками.
Разработчики из лаборатории Alibaba Qwen также подчеркнули, что это ещё не финальная версия модели — её общедоступный вариант, вероятно, сможет похвастаться ещё более внушительными показателями. Это укрепит позиции Qwen в среде сверхбольших языковых моделей.