👩💻 On building with AI models
I have been using Cursor for about 15 months. I first learned about it in August when I opened X to see what people were saying about Pavel Durov’s arrest. I was surprised the feed was full of both tweets about “France messing up” and tweets about how Cursor + Sonnet 3.5 were changing software development. I saved that info, but only tried it a couple of months later when I needed to build the frontend for Habitry.
In essence, a developer’s setup now consists of two parts: the environment and the model. Environments can differ, models can differ too. Since I switched to Cursor as my main environment, this idea got a bit blurred in my head.
I have not tried Claude Code by Anthropic or Codex by OpenAI yet (there are also Google options like Antigravity and Gemini CLI), because besides the environment they often push their own models. But models now come out like machine-gun fire, and usually you want to try new ones immediately. In that sense Cursor is convenient: switching models is fast.
If you are not following closely: right now the two top “reasoning” models are Claude Opus 4.5 and GPT-5.2 Codex. Both are American, both closed, both from top companies. Serious businesses are already built on top of them.
It seems Chinese labs have a different strategy: they actively release models as open source. Maybe to show technological leadership, maybe to dump the market. There was already a precedent when the first open-source DeepSeek release noticeably shook US company stocks.
I used to mostly know DeepSeek and Qwen, but a couple of weeks ago Kimi 2.5 appeared. In benchmarks it is very close to Claude Opus 4.5, while costing 8-10 times less. And it is open.
First thought: Chinese players are setting the trend. That reduces the risk of hard monopolies and model access prices in the hundreds of dollars.
Recently I also found the open-source IDE OpenCode. It already has 100k GitHub stars and around 1k pull requests. It has clients for different platforms and even a terminal version. I can connect to a server over terminal, open the project folder, run opencode, and the magic starts right there. It supports many models from different providers. Kimi 2.5 is even free there right now, while Cursor still does not have it natively. The downside of console tools, in my view, is weaker strict line-by-line review (or maybe I just have not figured it out).
Second thought: open-source environments, just like open-source models, can seriously displace commercial products over time.
For the full ideal setup, two (almost contradictory) goals remain:
- fully local models so you do not pay anyone for inference
- full confidentiality when working with remote models
The first goal is actively progressing. For example, Qwen recently presented a model with 80B total and 3B active parameters, which is about an order of magnitude smaller than top models. I have already seen tweets about running it on MacBooks with 46 GB RAM. Not cheap, but realistic.
With Kimi 2.5 it is harder: for the full version you need two Mac mini studio machines with 512 GB each, around 1.5 million rubles. The quantized version fits on one.
The second goal could theoretically be solved via Durov’s Cocoon. It is still unclear why they do not open API access for third-party developers. Their semi-official dashboard site lists only three models, and not the strongest ones. Maybe enough for translation and summarization. But if they add strong Chinese open-source models, I would definitely try it.
P.S. people tell me Gemini is almost the only model that works in VS Code without VPN.
👩💻 **Про разаботку с моделями
**
Я уже месяцев 15 пользуюсь Cursor. Помню, впервые узнал про него в августе, когда зашел в X посмотреть, что мир думает по поводу посадки Павла Дурова. Удивился тому, что лента была заполнена одновременно твитами о том, как «Франция зашкварилась», и о том, как Cursor + Sonnet 3.5 меняют разработку. Я тогда сохранил себе эту инфу, но попробовал только через пару месяцев — как раз когда нужно было верстать фронтенд для Habitry.
По сути, сетап программиста сейчас состоит из двух частей: среда разработки и модель. Среды могут быть разными, модели тоже. Из-за того, что я перешел на Cursor как основное средство разработки, эта мысль у меня немного замылилась.
Claude Code от Anthropic и Codex от OpenAI (есть еще решения от Google (Antigravity и Gemini CLI), но они довольно жестко детектят «русскость» и могут ограничивать доступ) я пока не пробовал, потому что помимо среды они во многом навязывают свои модели. А модели сейчас выходят как из пулемета — обычно хочется сразу попробовать новую. Cursor в этом плане удобен: можно быстро переключаться между моделями.
Если кто не в теме: сейчас по сути есть две топовые «думающие» модели — Claude Opus 4.5 и GPT-5.2 Codex. Обе американские, обе закрытые, обе от топовых компаний. На них уже строятся серьезные бизнесы.
У китайцев, похоже, другая стратегия: они активно выкладывают модели в open source. Возможно, хотят показать технологическое лидерство, а возможно — демпинговать рынок. Уже был прецедент, когда первый релиз DeepSeek в open source заметно качнул акции американских компаний.
Раньше я знал в основном DeepSeek и Qwen, но пару недель назад появилась еще Kimi 2.5. По бенчмаркам она очень близка к Claude Opus 4.5, при этом стоит в 8–10 раз дешевле. И тоже открытая.
Первая мысль: китайцы задают тренд. И это снижает риск жестких монополий и цен в сотни долларов за доступ к моделям.
Недавно наткнулся и на open source среду разработки OpenCode. У нее уже 100k звезд на GitHub и около 1k pull request’ов. Есть клиенты под разные платформы и даже консольная версия. Я могу просто подключиться по терминалу к серверу, перейти в папку проекта, написать opencode — и прямо в терминале начинается магия. Поддерживается куча моделей от разных провайдеров. Kimi 2.5 там сейчас вообще бесплатна, а в Cursor ее до сих пор нативно нет. Минусом консольных вариантов я бы назвал отсутствие строгого ревью каждой строки (но может я просто не разобрался).
**Вторая мысль: **open source среды, как и open source модели, со временем могут серьезно потеснить коммерческие продукты.
Для полного кайфа остаются две (почти взаимоисключающие) задачи:
- полностью локальные модели, чтобы никому не платить за инференс
- полная конфиденциальность при работе с удаленными моделями
Первая задача активно решается. Например, Qwen недавно представила модель с 80 млрд общих и 3 млрд активных параметров — это на порядок меньше (где-то в 10 раз), чем у топовых моделей. Уже видел твиты запуска на макбуках с 46 ГБ RAM. Не очень дешево, но уже реалистично.
С Kimi 2.5 сложнее: для фулл-версии нужно два Mac mini studio по 512 ГБ — это примерно полтора миллиона рублей. Квантованная версия, правда, помещается в один.
Вторая задача теоретически может решиться через Cocoon от Дурова. Пока не очень понятно, почему они не открывают API для сторонних разработчиков. На полуофициальном сайте с дашбордом указано всего три модели, и не самые крутые. Возможно, их хватает для перевода и суммаризации. Но если туда добавят сильные китайские open source модели, я бы точно попробовал.
P.S. мне подсказывают, что gemini чуть ли не единственная модель, которая работает без vpn в vs code.