วิศวกรรมพร้อมที่ยอดเยี่ยม? ♂
พื้นที่เก็บข้อมูลนี้มีทรัพยากรที่ดูแลด้วยมือสำหรับวิศวกรรมที่รวดเร็วโดยมุ่งเน้นไปที่หม้อแปลงไฟฟ้าที่ผ่านการฝึกอบรมมาก่อน (GPT), CHATGPT, Palm ฯลฯ
Prompt Engineering Course is coming soon..
สารบัญ
- เอกสาร
- เครื่องมือและรหัส
- APIs
- ชุดข้อมูล
- แบบจำลอง
- เครื่องตรวจจับเนื้อหา AI
- เกี่ยวกับการศึกษา
- วิดีโอ
- หนังสือ
- ชุมชน
- วิธีการมีส่วนร่วม
เอกสาร
-
เทคนิควิศวกรรมที่รวดเร็ว :
- การทำเหมืองข้อความสำหรับวิศวกรรมที่รวดเร็ว: กราฟความรู้แบบเปิดข้อความเสร็จสิ้นผ่าน PLMS [2023] (ACL)
- แคตตาล็อกรูปแบบที่รวดเร็วเพื่อปรับปรุงวิศวกรรมที่รวดเร็วด้วย chatgpt [2023] (arxiv)
- พรอมต์ยากทำให้ง่าย: การเพิ่มประสิทธิภาพแบบไม่ต่อเนื่องตามการไล่ระดับสีสำหรับการปรับจูนและการค้นพบ [2023] (arxiv)
- การแจ้งเตือนสังเคราะห์: การสร้างการสาธิตห่วงโซ่ที่คิดสำหรับแบบจำลองภาษาขนาดใหญ่ [2023] (arxiv)
- พรอมต์แบบก้าวหน้า: การเรียนรู้อย่างต่อเนื่องสำหรับแบบจำลองภาษา [2023] (arxiv)
- การแจ้งเตือนแบทช์: การอนุมานอย่างมีประสิทธิภาพด้วย LLM APIs [2023] (arxiv)
- การกระตุ้นเตือนต่อเนื่องสำหรับคำถามที่ซับซ้อน [2022] (arxiv)
- การแจ้งเตือนที่มีโครงสร้าง: การปรับขนาดการเรียนรู้ในบริบทเป็น 1,000 ตัวอย่าง [2022] (arxiv)
- แบบจำลองภาษาขนาดใหญ่เป็นวิศวกรที่มีระดับมนุษย์ [2022] (arxiv)
- ถามฉันทุกอย่าง: กลยุทธ์ง่ายๆสำหรับการแจ้งรูปแบบภาษา [2022] (arxiv)
- กระตุ้น GPT-3 ให้เชื่อถือได้ในปี 2022
- การกระตุ้นด้วยซ้ำ: วิธีการแบบแยกส่วนสำหรับการแก้ปัญหาที่ซับซ้อน [2022] (arxiv)
- พรอมต์เชน: การผูกมัดแบบจำลองภาษาขนาดใหญ่พร้อมผ่านการเขียนโปรแกรมด้วยภาพ [2022] (arxiv)
- การตรวจสอบวิศวกรรมที่รวดเร็วในรูปแบบการแพร่กระจาย [2022] (arxiv)
- แสดงผลงานของคุณ: Scratchpads สำหรับการคำนวณระดับกลางด้วยแบบจำลองภาษา [2021] (arxiv)
- reframing คำแนะนำการให้คำแนะนำเป็นภาษาของ GPTK [2021] (arxiv)
- คำสั่งที่ได้รับคำสั่งอย่างน่าอัศจรรย์และสถานที่ที่จะหาได้: การเอาชนะความไวต่อคำสั่งไม่กี่ครั้ง [2021] (arxiv)
- กำลังของสเกลสำหรับการปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพสูงสุด [2021] (arxiv)
- การเขียนโปรแกรมที่รวดเร็วสำหรับโมเดลภาษาขนาดใหญ่: นอกเหนือจากกระบวนทัศน์ไม่กี่นัด [2021] (arxiv)
- คำนำหน้าการปรับแต่ง: การเพิ่มประสิทธิภาพการแจ้งเตือนอย่างต่อเนื่องสำหรับรุ่น [2021] (arxiv)
การใช้เหตุผลและการเรียนรู้ในบริบท :
- การใช้เหตุผลแบบหลายรูปแบบในรูปแบบภาษา [2023] (arxiv)
- ในความคิดที่สองอย่าคิดทีละขั้นตอน! อคติและความเป็นพิษในการใช้เหตุผลแบบศูนย์-ช็อต [2022] (arxiv)
- ตอบสนอง: การรวมเหตุผลและการทำหน้าที่ในรูปแบบภาษา [2022] (arxiv)
- แบบจำลองภาษาเป็นเหตุผลที่โลภ: การวิเคราะห์อย่างเป็นทางการอย่างเป็นระบบของห่วงโซ่ของความคิด [2022] (arxiv)
- ล่วงหน้าของการทำให้แบบจำลองภาษามีเหตุผลดีขึ้น [2022] (arxiv)
- แบบจำลองภาษาขนาดใหญ่เป็นเหตุผลที่ไม่มีการยิง [2022] (arxiv)
- การให้เหตุผลเช่นโปรแกรมผู้บริหาร [2022] (arxiv)
- ความสม่ำเสมอของตนเองช่วยปรับปรุงห่วงโซ่การให้เหตุผลทางความคิดในรูปแบบภาษา [2022] (arxiv)
- ทบทวนบทบาทของการสาธิต: สิ่งที่ทำให้การเรียนรู้ในบริบท? [2022] (arxiv)
- เรียนรู้ที่จะอธิบาย: การใช้เหตุผลหลายรูปแบบผ่านโซ่ความคิดสำหรับคำถามทางวิทยาศาสตร์ตอบ [2022] (arxiv)
- ห่วงโซ่แห่งความคิดกระตุ้นให้เกิดการให้เหตุผลในรูปแบบภาษาขนาดใหญ่ [2021] (arxiv)
- สร้างความรู้ที่ได้รับการกระตุ้นให้มีการให้เหตุผลเชิงพาณิชย์ [2021] (arxiv)
- Bertese: เรียนรู้ที่จะพูดคุยกับ Bert [2021] (ACL)
การประเมินและปรับปรุงรูปแบบภาษา :
- แบบจำลองภาษาขนาดใหญ่สามารถเบี่ยงเบนความสนใจได้ง่ายโดยบริบทที่ไม่เกี่ยวข้อง [2023] (arxiv)
- คลานความรู้ภายในของแบบจำลองภาษา [2023] (arxiv)
- การค้นพบพฤติกรรมแบบจำลองภาษาด้วยการประเมินแบบจำลองที่เขียนขึ้น [2022] (arxiv)
- การปรับเทียบก่อนการใช้
แอปพลิเคชันของแบบจำลองภาษา :
- ใช้ถ้อยคำใหม่และตอบกลับ: ให้แบบจำลองภาษาขนาดใหญ่ถามคำถามที่ดีกว่าสำหรับตัวเอง [2023] (arxiv)
- การแจ้งเตือนสำหรับการจำแนก meme ที่เกลียดชังหลายรูปแบบ [2023] (arxiv)
- สถานที่: การกระตุ้นแบบจำลองภาษาสำหรับการสังเคราะห์การสนทนาทางสังคม [2023] (arxiv)
- การกระตุ้นให้ตระหนักถึงการสร้างบทสนทนาที่มีความเห็นอกเห็นใจที่สามารถควบคุมได้ [2023] (arxiv)
- PAL: โมเดลภาษาที่ใช้โปรแกรมโดยโปรแกรม 2023
- วิศวกรรมทางกฎหมายพร้อมสำหรับการทำนายการตัดสินทางกฎหมายหลายภาษา [2023] (ARXIV)
- การสนทนากับ Copilot: การสำรวจวิศวกรรมที่รวดเร็วสำหรับการแก้ปัญหา CS1 โดยใช้ภาษาธรรมชาติ [2022] (arxiv)
- พล็อตเขียนจากโมเดลภาษาที่ผ่านการฝึกอบรมมาล่วงหน้า [2022] (ACL)
- Autoprompt: ความรู้ที่ทำให้เกิดความรู้จากแบบจำลองภาษาที่มีพรอมต์ที่สร้างขึ้นโดยอัตโนมัติ [2020] (ARXIV)
การตรวจจับภัยคุกคามและตัวอย่างที่เป็นปฏิปักษ์ :
- รัฐธรรมนูญ AI: ความไม่เป็นอันตรายจากข้อเสนอแนะ AI [2022] (arxiv)
- ไม่สนใจพรอมต์ก่อนหน้า: เทคนิคการโจมตีสำหรับแบบจำลองภาษา [2022] (arxiv)
- ข้อความที่สร้างขึ้นเครื่อง: การสำรวจแบบจำลองภัยคุกคามและวิธีการตรวจจับที่ครอบคลุม [2022] (arxiv)
- การประเมินความไวของแบบจำลองภาษาที่ผ่านการฝึกอบรมมาก่อนผ่านตัวอย่างที่เป็นมือตรงข้าม [2022] (arxiv)
- การตรวจจับความเป็นพิษด้วยการอนุมานตามพรอมต์ [2022] (arxiv)
- เราจะรู้ได้อย่างไรว่ารูปแบบภาษาใดรู้ [2020] (MIT)
การเรียนรู้แบบไม่กี่นัดและการเพิ่มประสิทธิภาพประสิทธิภาพ :
- Promptagator: การดึงข้อมูลหนาแน่นไม่กี่ครั้งจาก 8 ตัวอย่าง [2022] (arxiv)
- ความไม่น่าเชื่อถือของคำอธิบายในการกระตุ้นการยิงไม่กี่ครั้งสำหรับการให้เหตุผลเชิงข้อความ [2022] (arxiv)
- การทำให้แบบจำลองภาษาที่ผ่านการฝึกอบรมมาก่อนผู้เรียนไม่กี่คนที่ได้รับการถ่ายทำ [2021] (ACL)
- แบบจำลองภาษาเป็นผู้เรียนไม่กี่คน [2020] (arxiv)
ส่งข้อความถึงการสร้างภาพ :
- อนุกรมวิธานของตัวดัดแปลงที่รวดเร็วสำหรับการสร้างข้อความเป็นภาพ [2022] (arxiv)
- แนวทางการออกแบบสำหรับแบบจำลองการกำเนิดข้อความทางวิศวกรรมเป็นภาพที่รวดเร็ว [2021] (ARXIV)
- การสังเคราะห์ภาพความละเอียดสูงด้วยแบบจำลองการแพร่กระจายแฝง [2021] (arxiv)
- Dall · E: การสร้างภาพจากข้อความ [2021] (arxiv)
ส่งข้อความถึงเพลง/การสร้างเสียง :
- Musiclm: การสร้างเพลงจากข้อความ [2023] (arxiv)
- Ernie-Music: การสร้างเพลงแบบ text-to-waveform พร้อมรูปแบบการแพร่กระจาย [2023] (arxiv)
- Noise2Music: การสร้างเพลงที่มีการปรับแต่งด้วยโมเดลการแพร่กระจาย [2023) (arxiv)
- Audiolm: วิธีการสร้างแบบจำลองภาษาเพื่อการสร้างเสียง [2023] (arxiv)
- Make-an-Audio: การสร้างข้อความถึงอัสดิโอที่มีรูปแบบการแพร่กระจายที่เพิ่มขึ้น [2023] (arxiv)
ส่งข้อความถึงการสร้างวิดีโอ :
- Dreamix: วิดีโอการแพร่กระจายเป็นตัวแก้ไขวิดีโอทั่วไป [2023] (arxiv)
- TUNE-A-VIDEO: การปรับแต่งแบบจำลองการแพร่กระจายของภาพสำหรับการสร้างข้อความถึงวิดีโอ [2022] (arxiv)
- Noise2Music: การสร้างเพลงที่มีการปรับแต่งด้วยโมเดลการแพร่กระจาย [2023) (arxiv)
- Audiolm: วิธีการสร้างแบบจำลองภาษาเพื่อการสร้างเสียง [2023] (arxiv)
ภาพรวม :
- Piloting Copilot และ Codex: อุณหภูมิร้อนพรอมต์เย็นหรือเวทมนตร์ดำ? [2022] (arxiv)
เครื่องมือและรหัส
-
| ชื่อ | คำอธิบาย | url |
|---|
| llamainedex | Llamaidex เป็นโครงการที่ประกอบด้วยชุดของโครงสร้างข้อมูลที่ออกแบบมาเพื่อให้ใช้ฐานความรู้ภายนอกขนาดใหญ่กับ LLMS ได้ง่ายขึ้น | [GitHub] |
| กระตุ้น | แก้ปัญหา NLP ด้วย LLM's & สร้างงาน NLP ที่แตกต่างกันได้อย่างง่ายดายสำหรับรุ่นกำเนิดที่เป็นที่นิยมเช่น GPT, Palm และอื่น ๆ | [GitHub] |
| arize-phoenix | เครื่องมือโอเพ่นซอร์สสำหรับการสังเกต ML ที่ทำงานในสภาพแวดล้อมสมุดบันทึกของคุณ ตรวจสอบและปรับแต่ง LLM, CV และแบบตาราง | [GitHub] |
| พรอมต์ที่ดีกว่า | Test Suite สำหรับการแจ้งเตือน LLM ก่อนที่จะผลักพวกเขาไปที่ prod | [GitHub] |
| cometllm | บันทึกแสดงภาพและประเมินพรอมต์ LLM ของคุณเทมเพลตพรอมต์ตัวแปรแจ้งเตือนข้อมูลเมตาและอื่น ๆ | [GitHub] |
| ฝังตัว | เฟรมเวิร์กเพื่อสร้าง chatgpt เช่นบอทเหนือชุดข้อมูลของคุณ | [GitHub] |
| Explorerx องค์ประกอบเชิงโต้ตอบ | ICE เป็นไลบรารี Python และ Trace Visualizer สำหรับโปรแกรมโมเดลภาษา | [GitHub] |
| กองหญ้า | Open Source NLP Framework เพื่อโต้ตอบกับข้อมูลของคุณโดยใช้ LLM และ Transformers | [GitHub] |
| Langchainx | การสร้างแอพพลิเคชั่นด้วย LLMS ผ่านการรวมกันได้ | [GitHub] |
| OpenPrompt | เฟรมเวิร์กโอเพนซอร์ซสำหรับการเรียนรู้ล่วงหน้า | [GitHub] |
| เครื่องยนต์พร้อม | repo นี้มีไลบรารียูทิลิตี้ NPM สำหรับการสร้างและบำรุงรักษาพรอมต์สำหรับโมเดลภาษาขนาดใหญ่ (LLMs) | [GitHub] |
| ทันที | PrettInject เป็นกรอบที่ประกอบพร้อมที่จะส่งผลให้เกิดโมดูลาร์เพื่อให้การวิเคราะห์เชิงปริมาณของความทนทานของ LLMs ต่อการโจมตีที่รวดเร็ว | [GitHub] |
| แจ้ง AI | สนามเด็กเล่นขั้นสูงสำหรับ GPT-3 | [GitHub] |
| แหล่งกำเนิด | Promptsource เป็นชุดเครื่องมือสำหรับการสร้างการแบ่งปันและการใช้พรอมต์ภาษาธรรมชาติ | [GitHub] |
| แหล่งความคิด | กรอบสำหรับวิทยาศาสตร์การคิดเครื่องจักร | [GitHub] |
| พรอมต์ | ชุดเครื่องมือวิศวกรรมพรอมต์แบบหนึ่งนัด | [เครื่องมือ] |
| การกำหนดค่า AI | กรอบการกำหนดค่าโอเพนซอร์ซสำหรับการสร้างแอปพลิเคชันด้วย LLMS | [GitHub] |
| lastmile ai | สนามเด็กเล่นที่มีลักษณะคล้ายโน้ตบุ๊กสำหรับการโต้ตอบกับ LLMs ในรูปแบบที่แตกต่างกัน (ข้อความ, คำพูด, เสียง, ภาพ) | [เครื่องมือ] |
| xpulsai | สร้างแอพ AI ที่ปรับขนาดได้อย่างง่ายดาย แพลตฟอร์ม Autoops สำหรับ AI & ML | [เครื่องมือ] |
| ตัวแทน | Agenta เป็นแพลตฟอร์มนักพัฒนาโอเพนซอร์ซ LLM ที่มีเครื่องมือสำหรับการจัดการที่รวดเร็วการประเมินผลข้อเสนอแนะของมนุษย์และการปรับใช้ทั้งหมดในที่เดียว | [GitHub] |
| พรอมต์ | พัฒนาทดสอบและตรวจสอบงาน LLM {โครงสร้าง} ของคุณ | [เครื่องมือ] |
APIs
| ชื่อ | คำอธิบาย | url | จ่ายเงินหรือโอเพ่นซอร์ส |
|---|
| Openai | gpt-n สำหรับงานภาษาธรรมชาติ codex สำหรับแปลภาษาธรรมชาติเป็นรหัสและ Dall · e สำหรับการสร้างและแก้ไขภาพต้นฉบับ | [Openai] | จ่าย |
| cohereai | Cohere ให้การเข้าถึงโมเดลภาษาขนาดใหญ่ขั้นสูงและเครื่องมือ NLP ผ่าน API หนึ่งตัว | [cohereai] | จ่าย |
| มานุษยวิทยา | เร็วๆ นี้ | [มานุษยวิทยา] | จ่าย |
| Flan-T5 xxl | เร็วๆ นี้ | [HuggingFace] | โอเพ่นซอร์ส |
ชุดข้อมูล
-
| ชื่อ | คำอธิบาย | url |
|---|
| P3 (สระว่ายน้ำสาธารณะของพรอมต์) | P3 (กลุ่มสาธารณะของพรอมต์) เป็นชุดของชุดข้อมูลภาษาอังกฤษที่ได้รับแจ้งซึ่งครอบคลุมชุดงาน NLP ที่หลากหลาย | [HuggingFace] |
| พรอมต์ chatgpt ที่ยอดเยี่ยม | repo รวมถึง CHATGPT Promt Curation เพื่อใช้ CHATGPT ดีกว่า | [GitHub] |
| การเขียนพรอมต์ | การรวบรวมชุดข้อมูลขนาดใหญ่ของเรื่องราวที่เขียนโดยมนุษย์ 300K จับคู่กับการเขียนพรอมต์จากฟอรัมออนไลน์ (Reddit) | [Kaggle] |
| Midjourney Prompts | ข้อความแจ้งข้อความและ URL ภาพที่ถูกคัดลอกมาจากเซิร์ฟเวอร์สาธารณะของ Midjourney | [HuggingFace] |
แบบจำลอง
-
| ชื่อ | คำอธิบาย | url |
|---|
| CHATGPT | CHATGPT | [Openai] |
| codex | โมเดล Codex เป็นลูกหลานของรุ่น GPT-3 ของเราที่สามารถเข้าใจและสร้างรหัส ข้อมูลการฝึกอบรมของพวกเขามีทั้งภาษาธรรมชาติและรหัสสาธารณะหลายพันล้านบรรทัดจาก GitHub | [GitHub] |
| ผลิบาน | Bigscience ขนาดใหญ่เปิดวิทยาศาสตร์แบบเปิดกว้างภาษาหลายภาษา | [HuggingFace] |
| Facebook LLM | OPT-175B เป็นรุ่นเทียบเท่า GPT-3 ที่ได้รับการฝึกฝนโดย Meta มันเป็นรูปแบบภาษาที่มีการฝึกฝนที่ใหญ่ที่สุดที่มีพารามิเตอร์ 175 พันล้าน | [ALPA] |
| gpt-neox | GPT-NEOX-20B ซึ่งเป็นโมเดลภาษา Autoregressive พารามิเตอร์ 20 พันล้าน | [HuggingFace] |
| Flan-T5 xxl | FLAN-T5 เป็นแบบจำลองที่ปรับแต่งซึ่งหมายความว่ามันแสดงพฤติกรรมที่ไม่เป็นศูนย์เมื่อได้รับคำแนะนำเป็นส่วนหนึ่งของพรอมต์ | [HuggingFace/Google] |
| XLM-Roberta-xl | รุ่น XLM-Roberta-XL ได้รับการฝึกอบรมล่วงหน้าเกี่ยวกับข้อมูลคอมมอนแอลที่ผ่านการกรอง 2.5TB ที่มี 100 ภาษา | [HuggingFace] |
| GPT-J | มันเป็นแบบจำลองภาษาเชิงสาเหตุที่เหมือน GPT-2 ที่ผ่านการฝึกอบรมไว้ในชุดข้อมูลเสาเข็ม | [HuggingFace] |
| Palm-Rlhf-Pytorch | การดำเนินการของ RLHF (การเรียนรู้การเสริมแรงด้วยความคิดเห็นของมนุษย์) ที่ด้านบนของสถาปัตยกรรมปาล์ม โดยทั่วไป chatgpt แต่มีปาล์ม | [GitHub] |
| Gpt-neo | การใช้งานโมเดลแบบจำลอง GPT-2 และ GPT-3 แบบขนานโดยใช้ไลบรารี Mesh-Tensorflow | [GitHub] |
| Lamda-Rlhf-Pytorch | การฝึกอบรมก่อนการฝึกอบรมโอเพนซอร์ซของ Lamda ของ Google ใน Pytorch การเพิ่ม RLHF คล้ายกับ CHATGPT | [GitHub] |
| RLHF | การดำเนินการเรียนรู้การเสริมแรงจากข้อเสนอแนะของมนุษย์ (RLHF) | [GitHub] |
| GLM-130B | GLM-130B: โมเดลที่ผ่านการฝึกอบรมสองภาษาแบบเปิดสองภาษา | [GitHub] |
| mixtral-84b | MixTRAL-84B เป็นส่วนผสมของแบบจำลองผู้เชี่ยวชาญ (MOE) ที่มีผู้เชี่ยวชาญ 8 คนต่อ MLP | [HuggingFace] |
เครื่องตรวจจับเนื้อหา AI
-
| ชื่อ | คำอธิบาย | url |
|---|
| ตัวจําแนกข้อความ AI | ตัวจําแนกข้อความ AI เป็นรุ่น GPT ที่ปรับแต่งอย่างละเอียดซึ่งทำนายได้ว่ามีแนวโน้มว่าชิ้นส่วนของข้อความถูกสร้างขึ้นโดย AI จากแหล่งข้อมูลที่หลากหลายเช่น ChatGPT | [Openai] |
| เครื่องตรวจจับเอาต์พุต GPT-2 | นี่คือการสาธิตออนไลน์ของโมเดลเครื่องตรวจจับเอาท์พุท GPT-2 ตามการใช้งาน Roberta?/Transformers | [HuggingFace] |
| เครื่องตรวจจับ openai | ตัวจําแนก AI สำหรับการระบุข้อความที่เขียนด้วย AI (OpenAI Detector Python Wrapper) | [GitHub] |
หลักสูตร
??
- chatgpt วิศวกรรมพรอมต์สำหรับนักพัฒนาโดย deeplearning.ai
- วิศวกรรมที่รวดเร็วสำหรับแบบจำลองการมองเห็นโดย deeplearning.ai
บทเรียน
รู้เบื้องต้นเกี่ยวกับวิศวกรรมที่รวดเร็ว
- วิศวกรรมที่รวดเร็ว 101 - บทนำและทรัพยากร
- วิศวกรรมที่รวดเร็ว 101
- คู่มือวิศวกรรมที่รวดเร็วโดย Sudalairajkumar
คู่มือผู้เริ่มต้นเกี่ยวกับรูปแบบภาษากำเนิด
- คู่มือเริ่มต้นสำหรับแบบจำลองภาษากำเนิด - คู่มือแลมบ์ดา
- AI Generative พร้อม Cohere: ตอนที่ 1 - การแจ้งเตือนแบบจำลอง
แนวทางปฏิบัติที่ดีที่สุดสำหรับวิศวกรรมที่รวดเร็ว
- แนวทางปฏิบัติที่ดีที่สุดสำหรับวิศวกรรมที่รวดเร็วด้วย OpenAI API
- วิธีการเขียนพรอมต์ที่ดี
คำแนะนำที่สมบูรณ์เกี่ยวกับวิศวกรรมที่รวดเร็ว
- การแนะนำที่สมบูรณ์เกี่ยวกับวิศวกรรมที่รวดเร็วสำหรับรูปแบบภาษาขนาดใหญ่
- คู่มือวิศวกรรมที่รวดเร็ว: วิธีการสร้างพรอมต์ที่สมบูรณ์แบบ
ด้านเทคนิคของวิศวกรรมที่รวดเร็ว
- 3 หลักการสำหรับวิศวกรรมที่รวดเร็วด้วย GPT-3
- เฟรมเวิร์กทั่วไปสำหรับวิศวกรรมพรอมต์ CHATGPT
- วิธีการเขียนโปรแกรมที่รวดเร็ว
ทรัพยากรสำหรับวิศวกรรมที่รวดเร็ว
- พรอมต์ chatgpt ที่ยอดเยี่ยม
- พรอมต์การแพร่กระจายที่ดีที่สุด 100+
- Dalle Prompt Book
- Openai Cookbook
- วิศวกรรมที่รวดเร็วโดย Microsoft
วิดีโอ
-
- วิศวกรรมพรอม
- CHATGPT: 5 ความลับทางวิศวกรรมที่รวดเร็วสำหรับผู้เริ่มต้น
- CMU ขั้นสูง NLP 2022: การแจ้งเตือน
- วิศวกรรมที่รวดเร็ว - อาชีพใหม่?
- คู่มือ CHATGPT: 10x ผลลัพธ์ของคุณด้วยพรอมต์ที่ดีกว่า
- แบบจำลองภาษาและวิศวกรรมที่รวดเร็ว: การสำรวจอย่างเป็นระบบเกี่ยวกับวิธีการแจ้งเตือนใน NLP
- วิศวกรรมที่รวดเร็ว 101: การเติมข้อความอัตโนมัติ, zero-shot, one-shot และการแจ้งเตือนไม่กี่นัด
ชุมชน
-
- Openai Discord
- Promptslab Discord
- เรียนรู้การแจ้งเตือน
- r/chatgpt discord
- Midjourney Discord
วิธีการมีส่วนร่วม
เรายินดีต้อนรับการมีส่วนร่วมในรายการนี้! ในความเป็นจริงนั่นคือเหตุผลหลักว่าทำไมฉันถึงสร้างมันขึ้นมา - เพื่อส่งเสริมการมีส่วนร่วมและกระตุ้นให้ผู้คนสมัครรับการเปลี่ยนแปลงเพื่อรับทราบเกี่ยวกับการพัฒนาใหม่และน่าตื่นเต้นในโลกของรูปแบบภาษาขนาดใหญ่ (LLMS) และวิศวกรรมที่รวดเร็ว
ก่อนที่จะมีส่วนร่วมโปรดใช้เวลาสักครู่เพื่อตรวจสอบแนวทางการบริจาคของเรา แนวทางเหล่านี้จะช่วยให้มั่นใจได้ว่าการมีส่วนร่วมของคุณสอดคล้องกับวัตถุประสงค์ของเราและเป็นไปตามมาตรฐานของเราด้านคุณภาพและความเกี่ยวข้อง ขอบคุณสำหรับความสนใจในการมีส่วนร่วมในโครงการนี้!
แหล่งที่มาของภาพ: docs.cohere.ai