>>5326255
> варианты
Полный huggingface обученных моделей нескольких архитектур - если по быстрому потрогать - то можешь взять LM Studio как лаунчер - но это про готовые модели, не про обучение - зато запускается хоть на тостере - если у него достаточно памяти для модели, даже GPU не обязателен - хотя с ним быстрее и приятнее. Зависит от архитектуры и максимального размера контекста - но на 16Гб оперативки можно спокойно крутить 7B и почти всегда 13B LLAMA2-based модели с квантизацией 4 или даже 5, если с GPU - то можно и поболее, да даже дохлейшая 1050 с 3Гб памяти уже позволяет часть нагрузки перенести туда, и немного ускорить это всё.
Конечно обучение - это совсем другой порядок величин, но даже так потрогав готовое - надеюсь ты лучше поймёшь что реально - а что нет. Ну и да, специально обученная конкретно для твоей задачи модель явно будет компактнее универсальной с сопоставимым качеством именно в этой области, так что полагаю полтерабайта оперативки тебе для неё не понадобится.
> можно ли
Можно. Загвоздка в датасете.