Генерация текстов
Дотренировка (fine-tuning) нейросетей ruGPT3, GPT2 на вашем датасете (наборе текстов)
Готов дотренировать нейросеть для эффективной генерации текстов конкретно под вашу задачу (на вашем датасете).
Дотренировка – очень эффективный способ повышения качества. Примерную эффективность можно оценить через параметр eval_loss, который оценивает, насколько сгенерированные тексты близки к предложенным (меньше – лучше):
- gpt2 (минимальная модель без тренировки) – 4.02
- gpt2-large (максимальная модель без тренировки) – 3.66
- gpt2 (минимальная модель, дотренировка на датасете, 3 эпохи) – 3.65
Таким образом, дотренировка крайне эффективна – она позволяет даже простую модель за небольшую тренировку научить генерировать тексты эффективнее, чем сложную. Применение же тренировки к сложной даст ещё большие результаты!
Условия
Я берусь за задачу полностью, включая поиск оборудования для тренировки на самую большую нейросеть (gpt2-large, rugpt3-large с окном 1024). Тренировка самой большой нейросети даёт самые лучшие результаты, но для неё требуется GPU (видеокарта) с большим объемом памяти.
Тренировка на вашем датасете (до 200 Мб текстов) – 120 000 р.
На выходе – натренировання нейросеть, код для запуска.
Предоплата. После предоплаты в течении 2–3 недель высылается результат.