LLM Course documentation
แบบทดสอบท้ายบท
0. ติดตั้งโปรแกรม
1. โมเดล Transformer
2. การใช้งาน 🤗 Transformers
บทนำเบื้องหลังของ pipelineโมเดลTokenizersการจัดการกับหลายๆประโยค(multiple sequences)ประกอบทุกอย่างเข้าด้วยกันการใช้งานเบื้องต้นสำเร็จแล้ว!แบบทดสอบท้ายบท
3. การ fine-tune โมเดลที่ผ่านการเทรนมาแล้ว (pretrained model)
4. การแบ่งปันโมเดลและ tokenizers
6. ตัวตัดคำจาก 🤗 Tokenizers library
แบบทดสอบท้ายบท
1. ลำดับขั้นตอนใน pipeline ของการทำโมเดลด้านภาษา(language modeling)เป็นอย่างไร ?
2. tensor ที่เป็นเอาท์พุตออกมาจากโมเดล Transformer แบบพื้นฐานมีขนาดกี่มิติ และมิติเหล่านั้นเป็นอะไรบ้าง?
3. ข้อใดต่อไปนี้เป็นตัวอย่างของ tokenization แบบคำย่อย(subword)?
4. model head คืออะไร?
5. AutoModel คืออะไร?
6. มีเทคนิคอะไรบ้างที่เราต้องคำนึงถึงเมื่อจะต้องทำการจัดประโยคที่มีความยาวแตกต่างกันเข้าเป็นชุดเดียวกัน(batching)?
7. อะไรคือจุดประสงค์ของการใช้ฟังก์ชัน SoftMax กับผลลัพท์ที่เป็น logits ที่ได้จากโมเดลสำหรับจำแนกประโยค (sequence classification model)?
8. วิธีใดที่เป็นหัวใจหลักของ tokenizer API ส่วนใหญ่?
9. ตัวแปร result ในตัวอย่างโค้ดนี้มีค่าอะไรอยู่บ้าง?
from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
result = tokenizer.tokenize("Hello!")10. มีอะไรบางอย่างที่ผิดปกติกับโค้ดต่อไปนี้หรือไม่?
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
model = AutoModel.from_pretrained("gpt2")
encoded = tokenizer("Hey!", return_tensors="pt")
result = model(**encoded)