jiang.jp サイト解析まとめ

基本情報

サイトトップhttps://jiang.jp

HTMLサイズ

1ページ平均HTML(バイト)47030.1

内部リンク集計

リンク総数27

外部リンク集計

リンク総数30

メタ情報

meta description平均長151.53
OGPありページ数0
Twitterカードありページ数0

HTML言語 分布

キー割合
en100.00%

文字コード 分布

キー割合
utf-8100.00%

内部リンク分析(Internal)

ユニーク内部リンク数27
ページあたり内部リンク平均19.5

内部リンク 深さヒストグラム

キー
140
3350

内部リンク 上位URL

URLリンク総数
https://jiang.jp/index.html20
https://jiang.jp/about.html20
https://jiang.jp/posts/20250307_what_is_mcp/index.html14
https://jiang.jp/posts/20250303_how_cline_works/index.html14
https://jiang.jp/posts/20250124_LLM_efficiency/index.html14
https://jiang.jp/posts/20240815_ai_sdk/index.html14
https://jiang.jp/posts/20250129_speculative_decoding/index.html14
https://jiang.jp/posts/20240223_dspy_introduce/index.html14
https://jiang.jp/posts/20231109_multi_vector_retrieval/index.html14
https://jiang.jp/posts/20231014_cs224n_lecture_3/index.html14
https://jiang.jp/posts/20231013_cs224n_lecture_2/index.html14
https://jiang.jp/posts/20231011_cs224n_lecture_1/index.html14
https://jiang.jp/posts/20230611_retreiver/index.html14
https://jiang.jp/posts/20230601_embedding_benchmark/index.html14
https://jiang.jp/posts/20230523_speech_foundation_models_part2/index.html14
https://jiang.jp/posts/20230523_speech_foundation_models_part1/index.html14
https://jiang.jp/posts/20230518_grammar_checker/index.html14
https://jiang.jp/posts/20230510_hyde_detailed/index.html14
https://jiang.jp/posts/20230513_azure_openai/index.html14
https://jiang.jp/posts/20230509_react/index.html14

キーワード分析(KeywordMap)

ワードクラウド上位

重み
gpt1
OpenAI0.967888
Azure0.860345
prompt0.81753
llm0.735777
これは0.714903
例えば0.69984
したがって0.666667
Observation0.645259
Textless0.645259
Autoregressive0.645259
これにより0.619582
具体的には0.6
Dense0.572271
action0.537716
XLS0.537716
Acoustic0.537716
VALL0.537716
一方0.512934
turbo0.490518
Wav2vec0.490518
InPars0.466667
そして0.466667
based0.430173
Consistency0.430173
v30.430173
ReAct0.430173
input0.430173
Action0.430173
Speech0.430173
Non0.430173
Autoregressiveモデルは0.430173
Sparse0.430173
RetrieverとSparse0.430173
Zebra0.430173
から0.430173
そのため0.428942
つまり0.428942
Few0.408765
shot0.408765
しかし0.392244
まず0.362071
GPT0.333621
Zero0.327012
dense0.322629
domain0.322629
pre0.322629
32k0.322629
こんにちは0.322629
Search0.322629

共起語上位

語1語2スコア共起ページ数
AzureOpenAI3.23138633
arxivorg2.77772920
absorg2.77772920
gptturbo2.73903427
Wav2vecXLS2.51133918
https論文URL2.42634720
arxivhttps2.42634720
domainpre2.36067112
ランダムなワードベクトルから始めワードベクトルの学習方法については2.36067112
ランダムなワードベクトルから始め損失関数を定義し2.36067112
その負の方向に小さなステップを進めることで現在のパラメータから勾配を計算し2.36067112
その負の方向に小さなステップを進めることで損失関数を最小化する方向に進んでいきます2.36067112
ステップサイズは調整可能で損失関数を最小化する方向に進んでいきます2.36067112
ステップサイズは調整可能で小さすぎると計算が多くなり2.36067112
大きすぎると最適解に収束しない可能性があります小さすぎると計算が多くなり2.36067112
ニューラルネットワークは一般的に凸ではないため最適解が一意でない可能性がありますが2.36067112
実際には問題なく動作します最適解が一意でない可能性がありますが2.36067112
intermediatesteps2.33901411
arxiv論文URL2.2461315
absarxiv2.2461315
denseshot2.12685212
EはVALL2.12685212
Pseudodata2.034048
110MのEncoder2.034048
Aデータです今回使用するデータは東京都立大学のeラーニングシステムのQ2.034048
Aデータですこのデータは2.034048
Aデータを収集したものですこのデータは2.034048
427の質問と79の回答が含まれていますAデータを収集したものです2.034048
427の質問と79の回答が含まれています質問にどの回答に紐づくかのラベルがあります2.034048
データの様子は下記の通りです質問にどの回答に紐づくかのラベルがあります2.034048
評価指標は以下の3つです評価方法は以下の3つのステップです2.034048
その結果としては今回はRAGのRetrieverの性能を比較しました2.034048
Onehot2.034048
CourseraのAndrew勾配降下法について詳しく知りたい方は2.034048
CourseraのAndrewNg先生の機械学習の授業の受講を強くおすすめします2.034048
Ng先生の機械学習の授業の受講を強くおすすめします勾配降下法とは2.034048
勾配降下法とは現在のパラメータ2.034048
の値を持ち現在のパラメータ2.034048
の値を持ち学習率またはステップサイズ2.034048
を使用して勾配の負の方向に少し移動します学習率またはステップサイズ2.034048
これらはベクトルであり新しいパラメータ値が得られます2.034048
これらはベクトルであり各個別のパラメータは2.034048
これが単純な勾配降下法のアルゴリズムです各個別のパラメータは2.034048
全コーパスを用いて損失関数やその勾配を計算すると非常に時間がかかり2.034048
一度の勾配更新に長い時間を要するため非常に時間がかかり2.034048
一度の勾配更新に長い時間を要するため最適化が極めて遅くなります2.034048
の場合ニューラルネットワークではほぼ1002.034048
の場合勾配降下法ではなく確率的勾配降下法2.034048
SGD勾配降下法ではなく確率的勾配降下法2.034048
SGDが用いられます2.034048

類似サイトはこちら