Foundation-Model-Language-Model-FM-llm-
このリポジトリは、最新の生成AIの概念が掲載されている重要なタスクを実行するアクションの下でコミットされました。特に、次のように与えられる大規模な言語モデルの3つのコーディングアクションに焦点を当てました。
- InstaceタイプのML-M5-2XLARGEを使用して、AWSの生成AIを使用して、対話要約の例を調査します。これは、フェイスを抱きしめた事前に訓練された大手言語モデル(LLM)Flan-T5との対話の概要を組み込むことで正常に実行されました。さらに、テキスト生成の基礎モデルの重要な概念であるプロンプトエンジニアリングを採用しました。ゼロショット推論、ワンショット推論、少数のショット推論を使用して、対話の要約実験を締めくくりました。
- 2番目の実験では、生成的AIモデルでの微調整の重要な概念を調査し、再びダイアログの要約実験に取り組みました。再び、この特定の実験は、InstaceタイプのML-M5-2XLARGEを使用してAWSで実施されたことに注意することが重要です。この場合、Face Datasetを抱き締めるダイアログサムであるデータセットをリコールした後、事前に訓練されたFlan-T5モデルをロードしてからトークン化します。ショットインフェンスでモデルをテストした後、モデルを微調整してから、訓練されたLLMの妥当性をRogueメトリックで評価しました。その後、微調整を実行した後、パラメーター効率の高い微調整(PEFT)を実行しました。これは、低ランク適応(LORA)を含む一般的な用語であり、モデル上のPEFTの有効性を確認するためにRogueメトリックを再度計算することにより、実験ICを再締結しました。
- 最後に、Meta AIのヘイトスピーチ報酬モデルを使用して、Flan-T5モデルを微調整して、より少ない毒性含有量を生成する方法を研究します。従来のコミットを実行した後、近位ポリシー最適化(PPO)を使用して、報酬モデルに対する補強学習ポリシーを最適化することにより、要約を解毒するために微調整を実行します。繰り返しますが、忘れないでください。これをすべてAWSでInstaceタイプのML-M5-2XLARGEで実施しました。
これらのすべてのコーディングは、courseraでhttps://www.coursera.org/learn/generative-ai-with-llmsを使用したコース中に利用可能になりました。私の積極的な参加の証明書は、このリポジトリにすでにアップロードされています。