A Confederacy of Models: a Comprehensive Evaluation of LLMs on Creative Writing

Link
Abstract

We evaluate a range of recent LLMs on English creative writing, a challenging and complex task that requires imagination, coherence, and style. We use a difficult, open-ended scenario chosen to avoid training data reuse: an epic narration of a single combat between Ignatius J. Reilly, the protagonist of the Pulitzer Prize-winning novel A Confederacy of Dunces (1980), and a pterodactyl, a prehistoric flying reptile. We ask several LLMs and humans to write such a story and conduct a human evalution involving various criteria such as fluency, coherence, originality, humor, and style. Our results show that some state-of-the-art commercial LLMs match or slightly outperform our writers in most dimensions; whereas open-source LLMs lag behind. Humans retain an edge in creativity, while humor shows a binary divide between LLMs that can handle it comparably to humans and those that fail at it. We discuss the implications and limitations of our study and suggest directions for future research.
.

Synth

Problem:: 기존 LLM 벤치마크에서 창작적 글쓰기 평가 누락 / 순수 Zero-Shot 설정에서의 LLM 창작 능력 평가 부재 / 기존 데이터셋 사용 시 학습 데이터 오염 위험

Solution:: 12개 LLM과 인간 작가의 창작 능력을 10개 항목 루브릭으로 비교 평가 / 학습 데이터에 없을 독창적 시나리오 설계 (Ignatius J. Reilly vs 익룡) / 창작 전공 대학원생들의 블라인드 인간 평가 수행

Novelty:: 창작적 글쓰기에 대한 최초의 포괄적 LLM 평가 연구 / 훈련 데이터 오염을 방지한 독창적 프롬프트 설계 / 유머라는 도전적 요소를 포함한 다차원적 평가 / 상용 및 오픈소스 모델 12개의 대규모 비교

Note:: GPT-4가 대부분 지표에서 인간 능가하나 창의성은 인간 우위 / API를 이용한 모델이 오픈소스보다 확연히 좋음 / 창의성 평가에는 인간 평가 외에 대안이 없을까?

Summary

Motivation

Method

Method 검증