Pro 非公開(2000億?) Claude 3.5 Sonnet 非公開(700億?) パラメータはトークン同士の重み付けという説明をしましたが、一般的にはパラメータ数が多いほど高性能なモデルと言われていて、実際生成AIがそれら しい出力ができるのはそれまでモデルに比べてパラメータ数をものすごく大きくしたからなんですね。 ものすごく多いのでLLM、 「大規模」言語モデルと呼ばれています。
provide us to improve our Services, for example to train the models that power ChatGPT. 前述のとおり、お客様からご提供いただいたコンテンツは、 ChatGPTの基盤となるモデルのトレーニングなど、サービス向上 のために利用させていただく場合があります。 “ “ Read our instructions on how you can opt out of our use of your Content to train our models. モデルのトレーニングにおけるお客様のコンテンツの利用をオプ トアウトする方法については、こちらの手順をご覧ください。 “ “
Wikipedia 言語モデル - Wikipedia GPT (言語モデル) - Wikipedia Gemini (言語モデル) - Wikipedia 生成AIについてググっても生成AIで生成した記事ばかり出てくるので、結局Wikipediaを読んでました。 「生成AIに聞けばいいんじゃない?」という意見もあると思いますが、裏を取るには結局自分で探しに行かないといけないので。