Генерация текстов


Дотренировка (fine-tuning) нейросетей ruGPT3, GPT2 на вашем датасете (наборе текстов)


Готов дотренировать нейросеть для эффективной генерации текстов конкретно под вашу задачу (на вашем датасете).

Дотренировка – очень эффективный способ повышения качества. Примерную эффективность можно оценить через параметр eval_loss, который оценивает, насколько сгенерированные тексты близки к предложенным (меньше – лучше):
  • gpt2 (минимальная модель без тренировки) – 4.02
  • gpt2-large (максимальная модель без тренировки) – 3.66
  • gpt2 (минимальная модель, дотренировка на датасете, 3 эпохи) – 3.65

Таким образом, дотренировка крайне эффективна – она позволяет даже простую модель за небольшую тренировку научить генерировать тексты эффективнее, чем сложную. Применение же тренировки к сложной даст ещё большие результаты!

Условия

Я берусь за задачу полностью, включая поиск оборудования для тренировки на самую большую нейросеть (gpt2-large, rugpt3-large с окном 1024). Тренировка самой большой нейросети даёт самые лучшие результаты, но для неё требуется GPU (видеокарта) с большим объемом памяти.

Тренировка на вашем датасете (до 200 Мб текстов) – 150 000 р.
На выходе – натренировання нейросеть, код для запуска.

Предоплата. После предоплаты в течении 2–3 недель высылается результат.