BG Development · За реклама · За контакти | Помощ Търсене Потребители Календар Правила |
Здравей! ( Включване | Регистриране ) |
Bender++ |
Публикувано на: 04-03-2024, 13:27
|
Име: Група: Потребител Ранг: Редовен член Мнения: 556 Регистриран на: 18.04.21 |
Голям ментак. Gemini & Chat GPT са доста по-добре даже на български
-------------------- Слава на Цар Путин! Долу украинските фашисти!
|
Bender++ |
Публикувано на: 04-03-2024, 13:36
|
Име: Група: Потребител Ранг: Редовен член Мнения: 556 Регистриран на: 18.04.21 |
няма задръжки
Това мнение е било редактирано от Bender++ на 04-03-2024, 13:54 Прикачена картинка (Кликнете на картинката, за да я увеличите!) -------------------- Слава на Цар Путин! Долу украинските фашисти!
|
Delegate |
Публикувано на: 04-03-2024, 14:17
|
Име: Група: Потребител Ранг: Почетен член Мнения: 2729 Регистриран на: 30.05.09 |
Рънвам локално (микс от 7b експрети) Mixtral 8x7b и не ме кефи много. Представям това, което се базира на Mistral 7b какъв шит е. Друга бира е Mixtral large, който леко се доближава до GPT4
|
akrachev |
Публикувано на: 15-03-2024, 14:53
|
Име: акрачев Група: Потребител Ранг: Почетен член Мнения: 1094 Регистриран на: 27.11.09 |
Сега един прави модел с 1 бит (1B) който ще се събира на по малко от 1 ГБ RAM - интересно какво ще излезе ...
-------------------- |