EVALUATING THE DIVERSITY AND QUALITY OF LLM GENERATED CONTENT

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2504.12522 AIが作る文章やプログラムの「質」と「種類の豊富さ(多様性)」をどう評価するかの研究です。この論文では、ただ多様なだけでなく「使える(質の高い)」アウトプット …

データセット評価指標

以下では LLM 学習用データセットの多様性(あるいは「同質性」を避けられているか)を測る代表的な指標を、定義 → 計算方法 → 読み取り方 → 長所/限界 の順で簡潔に整理します。 distinct-N paper code 定義 生成コーパス(または学習データ)の中で 重複を除いた n-gram …

Hugoでkatexを使った数式が表示されなくて困った

Hugoで数式を表示するためにkatex@0.16.22を利用している。 https://katex.org/docs/browser 基本的に表示されるが表示されないこともあり困っていた。 結論 shortcodeを作る 以下のようなpassthroughするだけのショートコー …

Between Circuits and Chomsky: Pre-pretraining on Formal Languages Imparts Linguistic Biases (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2502.19249 どんなもの この研究は、形式言語での事前事前学習が自然言語学習に役立つことを示し、どのような形式言語が有効な帰納バイアス(inductive bias)を与え …

TinyHelen’s First Curriculum: Training and Evaluating Tiny Language Models in a Simpler Language Environment (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2501.00522 どんなもの この研究は、大規模言語モデル(LLM)の訓練に必要なリソースを削減するために、「簡素な言語環境」を構築し、その中で小型の言語モデル(Tiny …

Towards Data-Efficient Language Models: A Child-Inspired Approach to Language Learning (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2503.04611 どんなもの 本論文は、従来の大規模言語モデル(LLM)と比べて大幅に少ないデータで言語モデル(LM)を訓練する手法を提案しています。その手法は、人間の子供が言 …

Titans: Learning to Memorize at Test Time (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2501.00663 どんなもの Titansは、テスト時に情報を記憶することを学習する新しいニューラル長期記憶モジュールを備えた、深層学習アーキテクチャのファミリーです。 このモ …

Transformer2 : Self-adaptive LLMs (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2501.06252 どんなもの Transformer2は、未学習のタスクに対してリアルタイムでLarge Language Models (LLMs) を適応させるための自己適 …

Phi-4 Technical Report (AI論文要約)

AIを使った論文要約です。簡単なサーベイ用で詳細は論文を参照してください。 https://arxiv.org/abs/2412.08905 どんなもの 140億パラメータの言語モデルphi-4。データの質に重点を置いたトレーニングレシピで開発された。ウェブコンテンツやコードなどのオーガニックデータ …