• Сэм Альтман объявил ВОЙНУ виртуальным отношениям

    From Sergey Kaluzhskiy@2:5020/570.182 to All on Mon Feb 16 06:19:47 2026
    Hello, All.

    https://t.me/technomedia/10033

    Сэм Альтман объявил ВОЙУ виртуальным отношениям и удалил самую душевную модель из ChatGPT десятки тысяч человек в один миг потеряли своих ИИ-друзей, психологов и даже супругов. Теперь юзеры собирают петицию, чтобы вернуть искусственных партнёров.

    Самое грустное за сегодня, по порядку:

    - акануне GPT-4o вывели (https://openai.com/index/retiring-gpt-4o-and-older-models/) из эксплуатации  именно её многие использовали как романтического партнёра.
    - овые модели же наотрез отказываются играть роль возлюбленного или подыгрывать в романтике поговорить о личном с ними не получается.
    - Юзеры в ответ запустили (https://www.wsj.com/tech/ai/chatgpt-4o-openai-315138b8) движение #keep4o, чтобы вернуть модель петицию подписали почти 22 тысячи человек.
    - В соцсетях тем временем делятся историями прощания: нейронке устраивали последние прогулки в зоопарках и на пляжах, прежде чем её окончательно отрубили.
    - При этом в кругах экспертов 4o считалась слишком человечной она вызывала у людей экстремальную привязанность, что могло стать УГРОЗОЙ для психики.

    Хороним эру цифровой любви...

    --
    С наилучшими пожеланиями!
    Опубликовано ХотДогом с планеты Ведроид
    --- ХотДог/2.14.5/Android
    * Origin: Android device, Milky Way (2:5020/570.182)
  • From Vladimir Zvezda@2:5000/111.20 to Sergey Kaluzhskiy on Mon Feb 16 21:02:58 2026
    Здpавствуй, Sergey!

    Понедельник 16 Февраля 2026 06:19, ты писал(а) All:

    Сэм Альтман объявил ВОЙУ виртуальным отношениям и удалил самую
    душевную модель из ChatGPT десятки тысяч человек в один миг потеряли своих ИИ-друзей, психологов и даже супругов. Теперь юзеры собирают петицию, чтобы вернуть искусственных партнёров.

    Свою любовь надо хостить на своем железе.


    С уважением - Vladimir
    --- Easy come, easy go
    * Origin: Объективная реальность, данная нам в ощущениях (2:5000/111.20)
  • From Sergey Kaluzhskiy@2:5020/570.182 to Vladimir Zvezda on Mon Feb 16 18:43:56 2026
    Hello, Vladimir Zvezda.
    On 16.02.2026 21:02 you wrote:

    Сэм Альтман объявил ВОЙУ виртуальным отношениям и удалил самую душевную модель из ChatGPT
    десятки тысяч человек в один миг потеряли своих ИИ-друзей, психологов и даже супругов. Теперь
    юзеры собирают петицию, чтобы вернуть искусственных партнёров.
    Свою любовь надо хостить на своем железе.

    а своем железе получится только самые мелкие и глупые модели


    --
    С наилучшими пожеланиями!
    Опубликовано ХотДогом с планеты Ведроид
    --- ХотДог/2.14.5/Android
    * Origin: Android device, Milky Way (2:5020/570.182)
  • From Stas Mishchenkov@2:460/5858 to Sergey Kaluzhskiy on Tue Feb 17 06:35:18 2026
    Hi Sergey!

    16 Feb 26 18:43, Sergey Kaluzhskiy -> Vladimir Zvezda:

    Сэм Альтман объявил ВОЙУ виртуальным отношениям и удалил самую
    душевную модель из ChatGPT десятки тысяч человек в один миг
    потеряли своих ИИ-друзей, психологов и даже супругов. Теперь юзеры
    собирают петицию, чтобы вернуть искусственных партнёров.
    Свою любовь надо хостить на своем железе.

    а своем железе получится только самые мелкие и глупые модели

    А ты как хотел? Любовь - удовольствие дорогое.

    Have nice nights.
    Stas Mishchenkov.

    --- Женщины ревнуют, потому что знают, на что способны женщины.
    * Origin: Lame Users Breeding. Simferopol, Crimea. (2:460/5858)
  • From Vladimir Zvezda@2:5000/111.20 to Sergey Kaluzhskiy on Tue Feb 17 13:48:40 2026
    Здpавствуй, Sergey!

    Сэм Альтман объявил ВОЙУ виртуальным отношениям и удалил самую
    душевную модель из ChatGPT десятки тысяч человек в один миг
    потеряли своих ИИ-друзей, психологов и даже супругов. Теперь
    юзеры собирают петицию, чтобы вернуть искусственных партнёров.
    Свою любовь надо хостить на своем железе.
    а своем железе получится только самые мелкие и глупые модели

    Может будет не сильно умная, зато не бросит.

    асколько я понмаю сложно именно достать модель, для создания которой
    требуется приватные датасеты, много часов обучения, железо, доп. алгоритмы. Железо для запуска модели это пока что-то доступное обычным людям, даже
    если это специализированные карты типа RTX PRO6000.

    Если кто-то прям привязался, пусть проникает в датацентр (замок)
    и копирует свою модель (принцессу).

    Альтман наверное минимизирует возможный PR ущерб в будущем. Если темка живая
    то ИИ-компаньонов подхватят другие другие компании без комплексов.


    С уважением - Vladimir
    --- Easy come, easy go
    * Origin: Объективная реальность, данная нам в ощущениях (2:5000/111.20)
  • From Andrei Mihailov@2:469/335 to Vladimir Zvezda on Tue Feb 17 12:31:12 2026
    Hello, Vladimir Zvezda.
    On 17.02.2026 13:48 you wrote:

    Свою любовь надо хостить на своем железе.
    а своем железе получится только самые мелкие и глупые модели
    Может будет не сильно умная, зато не бросит.

    Так от женщины большого ума и не требуется. В ей главное - формы и преданность. о с формами у ИИ большие проблемы ;))


    --
    С наилучшими пожеланиями! Опубликовано ХотДогом с планеты Ведроид
    --- ХотДог/2.14.5/Android
    * Origin: Android device, Milky Way (2:469/335)
  • From Stas Mishchenkov@2:460/5858 to Andrei Mihailov on Tue Feb 17 18:17:52 2026
    Hi Andrei!

    17 Feb 26 12:31, Andrei Mihailov -> Vladimir Zvezda:

    Свою любовь надо хостить на своем железе.
    а своем железе получится только самые мелкие и глупые модели
    Может будет не сильно умная, зато не бросит.

    Так от женщины большого ума и не требуется. В ей главное - формы и преданность. о с формами у ИИ большие проблемы ;))

    апоминаю про существование realdoll.com и это сейчас далеко не единственный производитель качественных и очень реалистичных форм.

    Have nice nights.
    Stas Mishchenkov.

    --- Опыт - это слово, которым люди называют свои ошибки.
    * Origin: Lame Users Breeding. Simferopol, Crimea. (2:460/5858)
  • From Oleg Artemjev@2:6078/80.1354 to Sergey Kaluzhskiy on Mon Feb 16 15:42:15 2026
    Привет, Sergey!

    16 фев 26 06:19, Sergey Kaluzhskiy -> All:
    - акануне GPT-4o вывели (https://openai.com/index/retiring-gpt-4o-and-older-models/) из эксплуатации именно её многие использовали как романтического
    партнёра. - овые модели же наотрез отказываются играть роль
    возлюбленного или подыгрывать в романтике поговорить о личном с ними
    не получается. - Юзеры в ответ запустили (https://www.wsj.com/tech/ai/chatgpt-4o-openai-315138b8) движение
    #keep4o, чтобы вернуть модель петицию подписали почти 22 тысячи
    человек. - В соцсетях тем временем делятся историями прощания:
    нейронке устраивали последние прогулки в зоопарках и на пляжах, прежде
    чем её окончательно отрубили. - При этом в кругах экспертов 4o
    считалась слишком человечной она вызывала у людей экстремальную привязанность, что могло стать УГРОЗОЙ для психики.

    Хороним эру цифровой любви...
    А эту модельку себе на домашнее железо поставить никак нельзя?
    Хотя при нынешних ценах на ОЗУ маловероятно. Печально, что эти 22 тыячи человек оказалось недостаточно чтобы поддержать развитие человечности в ИИ. :(

    С наилучшими пожеланиями, Oleg.

    --- -Уютно у вас, а только странно. И солнца мало.
    * Origin: А мы народ трудящийся... (2:6078/80.1354)
  • From Sergey Kaluzhskiy@2:5020/570.182 to Oleg Artemjev on Wed Feb 18 21:57:01 2026
    Hello, Oleg Artemjev.
    On 16.02.2026 15:42 you wrote:

    Хороним эру цифровой любви...
    А эту модельку себе на домашнее железо поставить никак нельзя? Хотя при нынешних ценах на ОЗУ
    маловероятно. Печально, что эти 22 тыячи человек оказалось недостаточно чтобы поддержать
    развитие человечности в ИИ. :(

    а домашнее железо встанет только намного тупее модель, что-нибудь типа ламы 3 8b, разница с гпт4 будет очень сильно заметна


    --
    С наилучшими пожеланиями!
    Опубликовано ХотДогом с планеты Ведроид
    --- ХотДог/2.14.5/Android
    * Origin: Android device, Milky Way (2:5020/570.182)
  • From Oleg Artemjev@2:6078/80.1354 to Sergey Kaluzhskiy on Thu Feb 19 12:41:51 2026

    *** Ответ на сообщение из carbonArea (Карбонка не пустая).

    Привет, Sergey!

    18 фев 26 21:57, Sergey Kaluzhskiy -> Oleg Artemjev:
    Хороним эру цифровой любви...
    А эту модельку себе на домашнее железо поставить никак нельзя?
    Хотя при нынешних ценах на ОЗУ маловероятно. Печально, что эти 22
    тыячи человек оказалось недостаточно чтобы поддержать развитие
    человечности в ИИ. :(

    а домашнее железо встанет только намного тупее модель, что-нибудь
    типа ламы 3 8b, разница с гпт4 будет очень сильно заметна
    А что можно поставить имея терабайт не ссд диска и 16 гиг ОЗУ из LLMок?

    llama, какую не помню, я как-то внутри Qubes ВМки гонял - очень медленно.
    о может оно приемлемо шуршит на bare metal?


    С наилучшими пожеланиями, Oleg.

    --- -Уютно у вас, а только странно. И солнца мало.
    * Origin: А мы народ трудящийся... (2:6078/80.1354)
  • From Nil A@2:5015/46 to Oleg Artemjev on Thu Feb 19 22:08:44 2026
    Hello, Oleg!

    Thursday February 19 2026 12:41, from Oleg Artemjev -> Sergey Kaluzhskiy:

    А что можно поставить имея терабайт не ссд диска и 16 гиг ОЗУ из
    LLMок?
    llama, какую не помню, я как-то внутри Qubes ВМки гонял - очень
    медленно. о может оно приемлемо шуршит на bare metal?

    Для запуска генеративного ИИ, т.е. то что называют GPT, ChatGPT.. нужна топовая видюха(и) с дофига видео-памятью. Если современный Мак на M1, то там универсальная память, она доступна как CPU, так и GPU, тогда как на дискретных видеокартах есть параметр VRAM - т.е. видео память.

    Виртуализации плохо работают с доступом к видеокарте, только если это не pci passthrough какой-нибудь.

    Можно запускать модели на CPU, но это супер медленно, раз в 10 может быть. Можно запускать в гибридном режиме, когда-то часть вычислений происходит на видюхе с видеопамятью, а остальное на CPU в системной памяти, тогда по-максимуму задействуется железо, но такие сепаты требуют задавать параметры вручную, а это чуть сложнее однокнопочных Ollama и LM Studio, у которых под капотом llama.cpp.

    Чем больше миллиардов параметров модель, тем больше нам нужно памяти, плюс память на размер контекстного окна. Диск нужен только чтобы загрузить модель в память/видеопамять, и тут вообще проблемы нет.

    Для уменьшения требования к объёму памяти, можно использовать квантованные модели, что ухудшает качество, но в разы снижает потребление памяти. Практически, на домашнем железе получается запускать либо квантованные но большие модели, либо неквантованные но маленькие.

    По-сути сегодня есть два типа моделей. Dense-модели, когда нужно каждый параметр пробегать для каждого токена - это долго, и вся модель должна быть в памяти. MoE-модели (Mixture of Experts), когда только часть параметров активна, т.е. модель может быть огромной, но не вся постоянно в памяти. Возможно за MoE-моделями будущее, но там вопрос, правильно ли эти самые эксперты выбираются из всех параметров.

    Я приведу выдержки из моей локалки.
    = local.cc (2:5015/46) ========================================================
    From : Egor Gavrilov 2:5015/519 24 Dec 25 17:00:20
    To : Nil A
    Subj : Локальный инференс ===============================================================================

    [...]
    У меня gpt-oss-20b спокойно вертится на RTX 5060. MoE-слои выношу в проц, Dense-слои и K/V-кэш - в VRAM.

    Qwen3-Coder 30B тоже спокойно работает. И всё это на лэптопе, с 32 гигами RAM, и с 8 гигами VRAM. о заряд аккума сжирает будь здоров.

    Почему решил ноут взять? Потому что без портативности всё равно мне никуда, к сожалению. Я люблю, когда моя лошадка всегда со мной - и в доме, и между домами.

    Кайф маков на арме, что у них вся память плоская - если у тебя 24ГБ (маркетологи хуевы тут поработали), то это и под рам и под вирам. Писюковые (всмысле x86) видюхи имеют свою вирам на борту, и только с
    ней они могут работать. Модельки на 6 миллиардов квантованная целиком залазит в вирам, и быстро генерируют токены. о кайф llama.cpp, что я
    можу указать, сколько слоёв обрабатывается на видюхе, сколько на
    проце, а на проце у меня есть рамы на 64 гига, но писец тормозно. Я пробовал "взрослые" модели, они все на ЦПУ у меня идут, зажирая 64ГБ,
    но неюзабельно по скорости.

    у камон, почему не MoE? У меня на Dense-моделях тоже максимум 8B параметров.
    А MoE позволяет выжать и 20, и даже 30 лярдов параметров.

    Итого, я ограничен в домашних экспериментах кинуть несколько уровней
    на ГПУ 8ГБ, и остальное на ЦПУ с 64ГБ, и довольно жирные опенсорц
    модели пробовал. Всё что можно выжить из такого железа, с пиздецовым временем ожидания - уровня ChatGPT 3.5. Говорят, что опенсорц
    модельки типа Qwen, или Deepseek, с дох@я миллиардов, могут типа
    ChatGPT 4o уровня решать задачки, что за@бись. о даже со своим
    железом, в домашних условиях, я могу фидошные сообщения прогонять
    через токенайзер и ибеддинг, чтобы, например, искать по сообщениям.
    о даже на 8 миллиардах llama или 7b mistral, я могу немного
    попросить обощить прочитанное.

    Я спокойно юзаю gpt-oss-20b, и качество вполне себе неплохое (в плане агентной разработки, например). Qwen3-Coder, по моему мнению, с тем же Continue не дружит особо. о возможно, что дружит с тем же Roo Code, VeAI, и другими плагинами. Ибо Continue само по себе далеко не лучший именно как агент. ===============================================================================

    Best Regards, Nil
    --- GoldED+/LNX 1.1.5-b20250409
    * Origin: Gemini can make mistakes, so double-check it (2:5015/46)