メタ情報
| meta description平均長 | 42.56 |
|---|
| OGPありページ数 | 18 |
|---|
| Twitterカードありページ数 | 0 |
|---|
HTML言語 分布
| キー | 割合 |
|---|
| ja | 78.95% |
| en | 10.53% |
| ja-jp | 5.26% |
| en-us | 5.26% |
内部リンク分析(Internal)
| ユニーク内部リンク数 | 51 |
|---|
| ページあたり内部リンク平均 | 11.21 |
|---|
キーワード分析(KeywordMap)
ワードクラウド上位
| 語 | 重み |
|---|
| oasst | 1 |
| dolly | 0.965517 |
| DPO | 0.729303 |
| ichikara | 0.654461 |
| LLM | 0.577505 |
| full | 0.551724 |
| instruct3 | 0.551724 |
| instruct2 | 0.517241 |
| 13B | 0.510699 |
| eval | 0.50668 |
| llm | 0.448952 |
| v1 | 0.405037 |
| SFT | 0.310345 |
| また | 0.299375 |
| Bench | 0.295563 |
| v2 | 0.281765 |
| Nemo | 0.275862 |
| March | 0.2681 |
| 日本語 | 0.264155 |
| では | 0.253509 |
| 21k | 0.241379 |
| GPT | 0.232228 |
| AnswerCarefully | 0.232228 |
| gpt | 0.228934 |
| trl | 0.208372 |
| Llama | 0.206897 |
| databricks | 0.206897 |
| 15k | 0.206897 |
| LoRA | 0.206897 |
| tokenizer | 0.206897 |
| Aligner | 0.206897 |
| group | 0.206897 |
| 172B | 0.182326 |
| ただし | 0.172414 |
| Drop | 0.172414 |
| you | 0.172414 |
| instruction | 0.168893 |
| Instruct | 0.156279 |
| コード | 0.156279 |
| 2B | 0.156279 |
| judge | 0.156279 |
| nii | 0.140882 |
| February | 0.140882 |
| を使用しています | 0.140882 |
| japanese | 0.137931 |
| Encoder | 0.137931 |
| rlhf | 0.137931 |
| ver2 | 0.137931 |
| Vicuna | 0.137931 |
| Qwen | 0.137931 |
共起語上位
| 語1 | 語2 | スコア | 共起ページ数 |
|---|
| dolly | oasst | 3.307619 | 87 |
| ichikara | oasst | 3.264925 | 88 |
| dolly | ichikara | 3.215448 | 86 |
| full | oasst | 3.077028 | 65 |
| full | ichikara | 2.986131 | 64 |
| Aligner | Nemo | 2.785212 | 23 |
| eval | llm | 2.73031 | 89 |
| dolly | full | 2.710359 | 56 |
| Direct | Preference | 2.583161 | 16 |
| Optimization | Preference | 2.583161 | 16 |
| 13B | v2 | 2.580958 | 54 |
| 15k | databricks | 2.564724 | 19 |
| こちらのページ | の活動に興味を持たれた方は | 2.555824 | 16 |
| aya | evol | 2.495581 | 13 |
| tokenizer | ver2 | 2.464899 | 16 |
| Language | Models | 2.40418 | 13 |
| 7B | 8B | 2.355981 | 16 |
| Instruction | Tuning | 2.350759 | 12 |
| Base | の差分の | 2.350759 | 12 |
| Chat | の差分の | 2.350759 | 12 |
| Chat | Vector | 2.350759 | 12 |
| Vector | を加えている | 2.350759 | 12 |
| nlp | waseda | 2.350759 | 12 |
| roberta | waseda | 2.350759 | 12 |
| 言語モデルに評価データセットの問題を入力として与えて | 評価タスク | 2.350759 | 12 |
| データセット | 評価タスク | 2.350759 | 12 |
| データセット | 評価指標などの詳細は | 2.350759 | 12 |
| Llama2 | 評価基準は | 2.350759 | 12 |
| LLMを社会で利活用していく上ではLLMの透明性 | 信頼性の確保が必要であり | 2.350759 | 12 |
| モデルの高度化に伴い | 信頼性の確保が必要であり | 2.350759 | 12 |
| モデルの高度化に伴い | 安全性の配慮もより重要となります | 2.350759 | 12 |
| 今回のモデルや今後構築するモデルを活用してそれらの研究を進め | 安全性の配慮もより重要となります | 2.350759 | 12 |
| corpus | v3 | 2.350759 | 12 |
| 440M | 980M | 2.350759 | 12 |
| Fine | tuning | 2.350759 | 12 |
| Institute | National | 2.350759 | 12 |
| Informatics | Institute | 2.350759 | 12 |
| DeepSpeed | Zero | 2.332048 | 11 |
| AnswerCarefully | Eval | 2.284584 | 18 |
| A100 | GPU | 2.219421 | 14 |
| このベンチマークは日本語 | を用いて評価を行いました | 2.212689 | 12 |
| Llama2 | chat | 2.212689 | 12 |
| chat | の安全性評価にならい | 2.212689 | 12 |
| 150M | 440M | 2.212689 | 12 |
| nlp | roberta | 2.201107 | 11 |
| Bench | 日本語 | 2.199411 | 30 |
| Cross | Encoder | 2.142867 | 10 |
| group | representative | 2.08241 | 13 |
| Direct | Optimization | 2.074619 | 12 |
| japanese | roberta | 2.069489 | 11 |
被リンク情報
このデータの閲覧には会員登録が必要になります。会員登録