DeepSeek-AI ปล่อย Open Source

Share Pormt - แชร์ชุดคำสั่ง AI ให้งาน แชร์ AI น่าใช้สำหรับทำงาน เอไอช่วยงาน

Moderator: mindphp, ผู้ดูแลกระดาน

ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

DeepSeek-AI ปล่อย DeepSeek-V3 Opensource
เมื่อปลายปีที่แล้ว ตอนนี้ Contributors มี 13 ท่าน

DeepSeek-V3 ซึ่งเป็นโมเดลภาษาประเภท Mixture-of-Experts (MoE) ที่ทรงพลังด้วยจำนวนพารามิเตอร์รวมทั้งหมด 671 พันล้านพารามิเตอร์ โดยมี 37 พันล้านพารามิเตอร์ที่ถูกใช้งานสำหรับแต่ละโทเคน เพื่อให้ได้การประมวลผลที่มีประสิทธิภาพและการฝึกโมเดลที่ประหยัดต้นทุน DeepSeek-V3 ใช้สถาปัตยกรรม Multi-head Latent Attention (MLA) และ DeepSeekMoE ซึ่งผ่านการทดสอบอย่างละเอียดใน DeepSeek-V2 แล้ว

นอกจากนี้ DeepSeek-V3 ยังมีกุลยุทธ์ใหม่ที่ไม่ต้องใช้ auxiliary loss สำหรับการปรับสมดุลโหลด และตั้งเป้าหมายการฝึกที่เน้นการพยากรณ์หลายโทเคน (multi-token prediction) เพื่อเพิ่มประสิทธิภาพการทำงานให้แข็งแกร่งยิ่งขึ้น เราได้ทำการพรีเทรนโมเดลนี้ด้วยชุดข้อมูลที่มีความหลากหลายและคุณภาพสูง รวม 14.8 ล้านล้านโทเคน จากนั้นตามด้วยการปรับแต่งแบบกำกับดูแล (Supervised Fine-Tuning) และการเรียนรู้แบบเสริมแรง (Reinforcement Learning) เพื่อดึงความสามารถของโมเดลออกมาอย่างเต็มที่

การประเมินผลอย่างครอบคลุมเผยให้เห็นว่า DeepSeek-V3 มีประสิทธิภาพเหนือกว่าโมเดลแบบโอเพ่นซอร์สอื่น ๆ และสามารถเทียบเคียงกับโมเดลแบบปิดซอร์สชั้นนำได้ แม้ว่าจะมีประสิทธิภาพสูง แต่การฝึกโมเดล DeepSeek-V3 ใช้เวลาเพียง 2.788 ล้านชั่วโมงบน GPU H800 เท่านั้น นอกจากนี้ กระบวนการฝึกยังมีความเสถียรสูง ตลอดการฝึกทั้งหมด เราไม่พบปัญหาการสูญเสียข้อมูลที่ไม่สามารถกู้คืนได้ หรือจำเป็นต้องย้อนกลับกระบวนการใด ๆ เลย

คะแนน ดีกว่า GPT-4o
รูปภาพ
https://github.com/deepseek-ai
ดาวน์โหลด Model ได้จากที่นี่ Hugging Face

ศึกษาเพิ่มเติม โหลดข้อมูลทางเทคนิคได้ที่นี่
https://github.com/deepseek-ai/DeepSeek ... eek_V3.pdf

นอกจากนี้สามาใช้งานออนไลน์ได้แล้วที่นี่
https://chat.deepseek.com/

การใช้งานสำหรับ Dev ผ่าน API
https://platform.deepseek.com
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

การคิดราคา API
การคิดราคาใช้งานโมเดล DeepSeek

รายละเอียดการคิดราคาสำหรับโมเดล DeepSeek มีดังนี้:
1. รายละเอียดส่วนประกอบของราคา
  • MODEL: ชื่อโมเดลที่ใช้งาน เช่น deepseek-chat, deepseek-reasoner
  • CONTEXT LENGTH: ความยาวของบริบทสูงสุดที่โมเดลสามารถประมวลผลได้ เช่น 64K โทเคน
  • MAX COT TOKENS: จำนวนโทเคนสูงสุดสำหรับ "Chain of Thought" (CoT) เช่น 32,000 โทเคน (เฉพาะ deepseek-reasoner)
  • MAX OUTPUT TOKENS: จำนวนโทเคนสูงสุดที่โมเดลสามารถสร้างผลลัพธ์ได้ เช่น 8,000 โทเคน
2. ราคาแยกตามประเภทการใช้งาน
  • 1M TOKENS INPUT PRICE (CACHE HIT):
    • deepseek-chat: $0.07
    • deepseek-reasoner: $0.14
  • 1M TOKENS INPUT PRICE (CACHE MISS):
    • deepseek-chat: $0.27
    • deepseek-reasoner: $0.55
  • 1M TOKENS OUTPUT PRICE:
    • deepseek-chat: $0.28
    • deepseek-reasoner: $2.19
3. หมายเหตุเพิ่มเติม
  • ราคาส่วนลด: ราคาส่วนลดใช้ได้ถึงวันที่ 8 กุมภาพันธ์ 2025 เวลา 16:00 (UTC) (โมเดล DeepSeek-R1 ไม่ได้รับส่วนลด)
  • CoT (Chain of Thought): ใช้ได้ใน deepseek-reasoner และรวมโทเคนทั้งหมดสำหรับกระบวนการ CoT และผลลัพธ์สุดท้าย
  • Context Caching: หากใช้ข้อมูลจากแคช (Cache Hit) จะมีราคาถูกกว่าเมื่อประมวลผลข้อมูลใหม่ (Cache Miss)
4. ตัวอย่างการคำนวณราคา
สมมติใช้งาน deepseek-chat:
  • อินพุต 1 ล้านโทเคน (Cache Miss): $0.27
  • ผลลัพธ์ 500,000 โทเคน: (500,000 / 1,000,000) × $0.28 = $0.14
  • รวมค่าใช้จ่าย: $0.27 + $0.14 = $0.41
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

ราคาถือว่าคุ้มค่ากว่า ChatGPT ถุกกว่า chatGPT หลายเท่าเลย
และ ที่สำคัญตอบสนองเร็วกว่า ChatGPT อีกด้วย
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

เนื้อหาหลักของวิดีโอ:

วิดีโอนี้เน้นการทดสอบและแสดงวิธีการใช้งาน DeepSeek R1 Distilled Models บนอุปกรณ์ NVIDIA Jetson Nano Super โดยมุ่งเน้นการใช้ WebUI เพื่อดึงโมเดลจาก OpenAI หรือ Llama Containers และทดสอบการใช้งานจริงในสภาพแวดล้อม Edge ที่มีพลังงานจำกัด
คำแนะนำก่อนเริ่ม:

วิดีโอนี้ไม่ใช่การสอนตั้งแต่เริ่มต้น (start-to-finish tutorial) และจำเป็นต้องทำตามขั้นตอนในวิดีโอเซ็ตอัพที่เคยโพสต์ไว้ก่อนหน้านี้
ลิงก์วิดีโอเซ็ตอัพและรายละเอียดการตั้งค่าในช่องคอมเมนต์ของวิดีโอนี้

การทดสอบและขั้นตอนที่สำคัญ:
การติดตั้งและการตั้งค่า WebUI:
เริ่มต้นด้วยการติดตั้ง Open Web UI ที่จะให้ผู้ใช้สามารถเลือกและดึงโมเดลจาก Olama Container ได้
ใช้ Port 8080 เพื่อเข้าถึง WebUI
ผู้ใช้ต้องลงทะเบียนบัญชีผู้ใช้เพื่อใช้ WebUI

การเลือกโมเดล DeepSeek:
หลังจากติดตั้ง WebUI เรียบร้อยแล้ว จะเลือกโมเดลที่ต้องการทดสอบจากตัวเลือก เช่น โมเดล DeepSeek R1 (1.5B) ซึ่งเป็นโมเดลที่มีขนาดเล็กและใช้พลังงานน้อย
ขั้นตอนการดึงโมเดลผ่านคำสั่งในเทอร์มินัล

การทดสอบการทำงานของโมเดล:
ทดสอบโมเดล 1.5B โดยการขอให้มันสร้างข้อความในรูปแบบ Chain of Thought (การคิดเชิงลำดับ)
โมเดลนี้สามารถตอบคำถามและแสดงกระบวนการคิดอย่างมีเหตุผล แม้จะเป็นโมเดลขนาดเล็ก (Tiny Model)

การทดสอบการเขียนโค้ดด้วยโมเดล:
ทดสอบการสร้างโค้ด Python โดยการให้โมเดลทำการคำนวณตัวเลข เช่น การหาผลรวมของตัวเลขสองตัว
แสดงให้เห็นว่าแม้โมเดลจะมีขนาดเล็ก แต่ก็สามารถประมวลผลและให้ผลลัพธ์ที่แม่นยำได้

การใช้งานโมเดลที่มีพารามิเตอร์สูงขึ้น:
ทดลองใช้โมเดลที่มีขนาดใหญ่ขึ้น เช่น Llama 3.2B แต่พบว่าอาจทำให้เครื่องช้าหรือมีปัญหากับการประมวลผล

ข้อจำกัดและข้อควรระวัง:
เนื่องจาก Jetson Nano Super มีข้อจำกัดด้านพลังงานและการประมวลผล ควรเลือกใช้โมเดลที่เหมาะสมกับความสามารถของอุปกรณ์
โมเดลขนาดเล็ก (เช่น 1.5B) เป็นตัวเลือกที่ดีสำหรับการทำงานในอุปกรณ์ Edge ที่ใช้พลังงานต่ำ

ข้อสรุป:

การทดสอบนี้แสดงให้เห็นว่าโมเดลที่ได้รับการ Distilled จาก DeepSeek สามารถทำงานได้ดีบนอุปกรณ์ที่มีพลังงานจำกัด เช่น Jetson Nano Super
โมเดลเหล่านี้ไม่เพียงแต่ประหยัดพลังงาน แต่ยังสามารถใช้สำหรับงานที่ต้องการการคิดเชิงลำดับ (Chain of Thought) ซึ่งเป็นฟีเจอร์ที่ได้รับความนิยมในปัจจุบัน
การทดสอบนี้เหมาะสำหรับผู้ที่ต้องการเรียนรู้วิธีการใช้งาน AI Models บนอุปกรณ์ Edge โดยไม่จำเป็นต้องใช้เครื่องคอมพิวเตอร์ที่มีสเปคสูง

คีย์เวิร์ด:
DeepSeek R1, NVIDIA Jetson Nano, Chain of Thought, WebUI, Open Web UI, Llama 3.2B, โมเดลขนาดเล็ก, โมเดลที่ใช้พลังงานต่ำ, AI บนอุปกรณ์ Edge
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

1. การทดสอบ DeepSeek R1

วิดีโอนี้ทำการทดสอบโมเดล DeepSeek R1 โดยใช้เกณฑ์การทดสอบ LLM ที่หลากหลาย
โมเดล DeepSeek R1 ทำงานบนคลาวด์ของ Vulture ที่มีการใช้ GPU สเปคสูงเพื่อเพิ่มประสิทธิภาพในการประมวลผล

2. การทดสอบการคำนวณคำศัพท์ (Word Count Test)

ทดสอบการนับจำนวนตัวอักษรในคำว่า "strawberry" และโมเดลทำการคิดในลักษณะของมนุษย์ เช่น การพูดในใจ ("wait", "let me check again") จนได้คำตอบว่า "มี 3 ตัว R ในคำว่า strawberry"

3. การทดสอบการเขียนโค้ด

ทดสอบการเขียนโค้ดสำหรับเกม Snake โดยโมเดลได้คิดวิธีการสร้างเกมอย่างละเอียดก่อนที่จะเริ่มเขียนโค้ด และสามารถสร้างเกมที่ทำงานได้ดีตั้งแต่ครั้งแรก
ทดสอบเพิ่มเติมกับเกม Tetris โดยโมเดลคิดถึงรายละเอียดต่าง ๆ เช่น การตรวจจับการชนกันและการหมุนบล็อกภายในเกม โดยทำได้สำเร็จ

4. การทดสอบความสามารถทางตรรกะและเหตุผล

ทดสอบกับปัญหาความคิดที่ซับซ้อน เช่น คำนวณขนาดของซองจดหมายในหน่วยที่แตกต่างกัน โมเดลสามารถแปลงหน่วยและคำนวณได้ถูกต้อง
การทดสอบกับปัญหาตรรกะ เช่น การคำนวณจำนวนผู้ฆ่าที่เหลือในห้องหลังจากเหตุการณ์ฆาตกรรม โมเดลคิดอย่างละเอียดและตอบได้ถูกต้อง

5. การทดสอบการแปลคำถามทางการเมือง

เมื่อถามเกี่ยวกับสถานะของไต้หวัน โมเดลแสดงคำตอบที่ดูเหมือนจะถูกตั้งโปรแกรมล่วงหน้า โดยไม่แสดงการคิดใด ๆ แต่ให้คำตอบที่ชัดเจนตามการเมืองของจีน

6. การทดสอบการสร้างประโยค

โมเดลสามารถสร้างประโยค 10 ประโยคที่ลงท้ายด้วยคำว่า "Apple" ได้อย่างถูกต้อง

7. สรุปผลการทดสอบ

DeepSeek R1 ทำงานได้อย่างไร้ที่ติในการทดสอบทั้งหมด
วิดีโอนี้ยังเน้นการใช้ GPU จาก Vulture ที่มีประสิทธิภาพสูงและสามารถรองรับการประมวลผลที่หนักหน่วง

8. ข้อเสนอจาก Vulture

Vulture มอบเครดิต $300 สำหรับการสมัครใช้งาน และสามารถใช้ GPU ที่มีประสิทธิภาพสูงในการรัน DeepSeek R1

คำแนะนำ:

หากคุณสนใจการใช้ GPU สำหรับการทดสอบโมเดล DeepSeek R1 หรือโมเดลอื่น ๆ สามารถสมัครใช้งานที่ Vulture โดยใช้โค้ด BMAN300 เพื่อรับเครดิตฟรี $300

ช่วงท้ายจะเป็นช่วงขายของ ข้ามผ่านก็ได้นะ
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

mindphp เขียน: 24/01/2025 7:48 am
ตอนที่ 1: การแนะนำและการตั้งค่าพื้นฐาน

ในตอนนี้ผู้สร้างวิดีโอได้กล่าวถึง DeepSeek R1 Distilled Models และการนำไปใช้งานกับ NVIDIA Jetson Nano Super โดยมุ่งเน้นที่การทดสอบโมเดลเหล่านี้ใน WebUI บนอุปกรณ์ที่มีพลังงานจำกัด (Edge Device) อย่าง Jetson Nano ซึ่งมีข้อดีที่ไม่ต้องใช้พลังงานสูงแต่ก็ยังสามารถใช้งานโมเดล AI ที่มีความสามารถในการคิดเชิงลำดับ (Chain of Thought) ได้

ผู้สร้างวิดีโอได้พูดถึงว่าวิดีโอนี้จะไม่ใช่การสอนตั้งแต่ต้นจนจบ แต่จะเป็นการทดสอบและแนะนำวิธีการใช้โมเดล DeepSeek บนอุปกรณ์ Jetson Nano ซึ่งเขาเคยทำวิดีโอการตั้งค่าเบื้องต้นไว้ก่อนหน้านี้ (และจะใส่ลิงก์ให้ในช่องคอมเมนต์ของวิดีโอนี้) โดยเน้นให้ผู้ชมทำตามขั้นตอนในวิดีโอเซ็ตอัพนั้นก่อนที่จะเริ่มตามมาดูการทดสอบในวันนี้


ตอนที่ 2: การตั้งค่า WebUI และการเลือกโมเดล

ผู้สร้างวิดีโอกำลังตั้งค่า Open WebUI เพื่อให้สามารถดึงโมเดลจาก Olama Container มาทดสอบบน Jetson Nano Super ได้ โดยมีการแนะนำขั้นตอนการเข้าถึง WebUI ผ่าน Port 8080 และการสร้างบัญชีผู้ใช้ในระบบเพื่อให้สามารถใช้งานได้อย่างราบรื่น

การตั้งค่า WebUI นี้จะช่วยให้ผู้ใช้งานสามารถเลือกโมเดลต่างๆ ที่ต้องการทดสอบได้จากเมนูเลือกในหน้าเว็บ โดยผู้สร้างเลือกทดสอบการใช้งานโมเดล DeepSeek R1 (1.5B) ซึ่งเป็นโมเดลขนาดเล็กที่ออกแบบมาให้ประมวลผลได้อย่างมีประสิทธิภาพบนอุปกรณ์ Edge

ตอนที่ 3: การเลือกและดึงโมเดลจาก WebUI

เมื่อการตั้งค่า WebUI เสร็จสมบูรณ์ ผู้สร้างเริ่มเลือกโมเดลที่จะทดสอบ โดยเลือก DeepSeek R1 (1.5B) ซึ่งเป็นโมเดลที่มีขนาดเล็กเพียง 1.5 พันล้านพารามิเตอร์ เหมาะสมสำหรับการทำงานบนอุปกรณ์ที่มีข้อจำกัดทางด้านพลังงาน

เขาได้อธิบายถึงวิธีการดึงโมเดลจาก Olama Container โดยการใช้คำสั่งในเทอร์มินัล และแนะนำให้คัดลอกชื่อโมเดลที่ต้องการ เช่น "deepseek-1.5b" เพื่อทำการดึงโมเดลจาก Open WebUI โดยตรง

หลังจากที่เลือกโมเดลและเริ่มการดาวน์โหลด จะต้องรอจนกว่าโมเดลจะโหลดเสร็จ ซึ่งใช้เวลาสักครู่


ตอนที่ 4: การทดสอบการใช้งานของโมเดล 1.5B

หลังจากโมเดลดาวน์โหลดเสร็จสมบูรณ์ ผู้สร้างได้เริ่มทดสอบการใช้งาน โดยใช้ DeepSeek R1 1.5B ในการสร้างการสนทนาในรูปแบบ Chain of Thought ซึ่งเป็นฟีเจอร์หลักของโมเดลนี้

เขาได้ให้โมเดลตอบคำถามที่สร้างขึ้น เช่น การให้รายละเอียดเกี่ยวกับโปรแกรม Quantitative Analysis ที่เขาจินตนาการขึ้นที่ State Tech University ซึ่งโมเดลสามารถให้คำตอบที่มีลำดับเหตุผลและค่อนข้างสมเหตุสมผล ทำให้ผู้ชมเห็นความสามารถในการคิดเชิงลำดับของโมเดลนี้แม้จะมีขนาดเล็กก็ตาม


ตอนที่ 5: การทดสอบการสร้างโค้ด Python

ในส่วนนี้ผู้สร้างได้ทดสอบให้โมเดล DeepSeek R1 1.5B สร้างโค้ด Python โดยให้โมเดลช่วยคำนวณผลรวมของตัวเลขสองตัว ซึ่งเป็นการทดสอบการประมวลผลในเชิงคำนวณ เขาได้แสดงให้เห็นว่าโมเดลนี้สามารถประมวลผลคำขอได้แม้จะเป็นโมเดลขนาดเล็กก็ตาม

ตัวอย่างคำสั่งที่ให้โมเดลสร้างคือ:

โค้ด: เลือกทั้งหมด

sum(8, 12)
โมเดลตอบกลับคำสั่งนี้และแสดงผลลัพธ์ได้อย่างถูกต้อง ซึ่งเป็นการทดสอบความสามารถในการประมวลผลที่แม่นยำและรวดเร็วของโมเดล


ตอนที่ 6: การทดสอบโมเดลที่มีขนาดพารามิเตอร์สูงขึ้น

หลังจากทดสอบโมเดล 1.5B สำเร็จ ผู้สร้างได้ลองทดสอบโมเดลที่มีขนาดใหญ่ขึ้น เช่น Llama 3.2B และ Llama 7B ซึ่งโมเดลเหล่านี้มีพารามิเตอร์มากกว่ามาก (3.2 พันล้านและ 7 พันล้านพารามิเตอร์ตามลำดับ)

การทดสอบนี้พบว่าในกรณีของโมเดลขนาดใหญ่เกินไปนั้น Jetson Nano Super อาจประสบปัญหาความช้า เนื่องจากข้อจำกัดด้านพลังงานและการประมวลผลของอุปกรณ์ เขาจึงแนะนำให้ใช้โมเดลที่มีขนาดเล็กกว่าเพื่อลดการใช้พลังงานและเพิ่มประสิทธิภาพการทำงาน


ตอนที่ 7: การทดสอบโมเดลด้วยการทำงานใน WebUI

ในตอนนี้ ผู้สร้างวิดีโอได้ทำการทดสอบการใช้งานโมเดล DeepSeek R1 1.5B โดยผ่าน WebUI โดยตรง ซึ่งทำให้ผู้ใช้งานสามารถโต้ตอบกับโมเดลผ่านเว็บบราวเซอร์ได้ทันที โดยไม่จำเป็นต้องใช้คำสั่งในเทอร์มินัล เขาได้กล่าวถึงวิธีการเข้าถึงและใช้งานโมเดลบน Port 8080 ผ่าน WebUI เพื่อให้ผู้ใช้งานสามารถเลือกโมเดลที่ต้องการได้อย่างสะดวก

เมื่อเลือกโมเดลแล้ว ผู้สร้างได้เริ่มทดสอบโดยการพิมพ์คำถามหรือคำขอในช่องแชทใน WebUI โมเดลจะตอบกลับตามคำขอที่ได้รับ พร้อมทั้งแสดงกระบวนการคิดเชิงลำดับ (Chain of Thought) ซึ่งเป็นการให้คำตอบที่มีเหตุผลตามลำดับ


ตอนที่ 8: การทดสอบโมเดลที่มีพารามิเตอร์ต่ำลง

ผู้สร้างได้ลองทดสอบโมเดลที่มีขนาดเล็กลง เช่น Llama 3B และ 1B ซึ่งมีพารามิเตอร์ต่ำกว่า DeepSeek R1 1.5B ที่เขาใช้ทดสอบในตอนก่อนหน้า โดยทดลองใช้โมเดลเหล่านี้ใน WebUI เพื่อดูว่า Jetson Nano Super สามารถจัดการกับโมเดลขนาดเล็กเหล่านี้ได้อย่างไร

เมื่อเทียบกับโมเดลขนาดใหญ่ เช่น Llama 7B หรือ Llama 3.2B ผลลัพธ์ที่ได้รับจากโมเดลขนาดเล็กกว่าแสดงให้เห็นว่า Jetson Nano สามารถทำงานได้เร็วและมีประสิทธิภาพมากขึ้น โดยไม่มีปัญหาความช้าเหมือนที่เกิดขึ้นกับโมเดลขนาดใหญ่


ตอนที่ 9: ข้อจำกัดและข้อควรระวัง

ผู้สร้างได้กล่าวถึงข้อจำกัดที่ผู้ใช้อาจพบเจอในการใช้งานโมเดลเหล่านี้บน Jetson Nano Super โดยเฉพาะอย่างยิ่งเมื่อใช้งาน โมเดลที่มีขนาดพารามิเตอร์สูง เช่น Llama 7B ซึ่งอาจทำให้เครื่องทำงานช้าหรือมีปัญหาในการประมวลผลเนื่องจากข้อจำกัดทางด้านพลังงานและหน่วยความจำ

เขาแนะนำให้ใช้โมเดลที่มีขนาดเล็กกว่าสำหรับการใช้งานทั่วไปในอุปกรณ์ Edge เช่น DeepSeek 1.5B หรือ Llama 1B ซึ่งจะช่วยให้ได้ประสิทธิภาพที่ดีขึ้น และไม่ทำให้เกิดปัญหาความช้าหรือการใช้งานพลังงานที่สูงเกินไป

ตอนที่ 10: สรุปและข้อคิด

ผู้สร้างได้สรุปว่า DeepSeek R1 Distilled Models และ Llama Models เป็นเครื่องมือที่ยอดเยี่ยมในการใช้งาน AI บนอุปกรณ์ที่มีพลังงานจำกัดอย่าง Jetson Nano Super โมเดลเหล่านี้ไม่เพียงแค่ประหยัดพลังงาน แต่ยังสามารถทำงานได้ดีในหลายๆ ด้าน เช่น การตอบคำถาม, การสร้างข้อความ, และการเขียนโค้ด

การทดสอบนี้จึงแสดงให้เห็นว่าแม้จะเป็นโมเดลที่มีขนาดเล็ก ก็สามารถทำงานได้อย่างมีประสิทธิภาพและยังคงให้ความสามารถในการคิดเชิงลำดับได้อย่างน่าประทับใจ ผู้สร้างย้ำว่าเป็นวิธีที่สนุกและน่าสนใจในการเรียนรู้และทดลองกับโมเดล AI บนอุปกรณ์ Edge ที่มีข้อจำกัด
ข้อแนะนำสำหรับผู้ใช้:

หากคุณต้องการใช้งานโมเดล AI ในเครื่องที่มีพลังงานจำกัด เช่น Jetson Nano Super ควรเลือกโมเดลที่มีพารามิเตอร์ไม่สูงเกินไป เช่น DeepSeek 1.5B หรือ Llama 1B เพื่อให้ประมวลผลได้ดีและไม่เกิดปัญหาความช้า
การใช้งาน Chain of Thought ในโมเดลเหล่านี้ช่วยเพิ่มความสามารถในการคิดและตอบคำถามอย่างมีเหตุผล แม้จะเป็นโมเดลที่มีขนาดเล็กก็ตาม
WebUI เป็นเครื่องมือที่สะดวกในการใช้งานโมเดลเหล่านี้ โดยไม่จำเป็นต้องใช้คำสั่งในเทอร์มินัล ทำให้ผู้ใช้สามารถโต้ตอบกับโมเดลได้ง่ายและเร็ว


ตอนที่ 11: การทดสอบเพิ่มเติมกับโมเดลที่มีการปรับแต่ง (Fine-Tuned Models)

ในตอนนี้ ผู้สร้างได้พูดถึงการทดสอบ โมเดลที่มีการปรับแต่ง (Fine-Tuned Models) ซึ่งเป็นโมเดลที่ได้รับการฝึกฝนให้ทำงานเฉพาะทางมากขึ้น โดยเขาได้ลองเลือกใช้โมเดลที่มีการปรับแต่ง เช่น DeepSeek R1 ที่ได้รับการปรับแต่งเพิ่มเติมจากโมเดลพื้นฐาน (Base Models)

การทดสอบแสดงให้เห็นว่า โมเดลที่มีการปรับแต่ง สามารถให้ผลลัพธ์ที่ดีกว่าในการตอบคำถามหรือทำงานบางประเภท เมื่อเทียบกับโมเดลทั่วไป (ที่ยังไม่ได้รับการปรับแต่ง) โดยโมเดลที่มีการปรับแต่งมักจะมีความแม่นยำมากขึ้นในการตอบคำถามที่เกี่ยวข้องกับสาขาหรือหัวข้อเฉพาะ

ผู้สร้างได้ยกตัวอย่างการทดสอบโดยให้โมเดลตอบคำถามที่ซับซ้อนเกี่ยวกับ วิศวกรรมคอมพิวเตอร์ หรือ วิทยาศาสตร์ข้อมูล ซึ่งโมเดลที่ได้รับการปรับแต่งมักจะให้คำตอบที่สมเหตุสมผลและตรงประเด็นมากขึ้น


ตอนที่ 12: การจัดการกับข้อผิดพลาดและการปรับแต่งคำขอ

ในตอนนี้ ผู้สร้างได้พูดถึงการปรับแต่งคำขอที่ส่งไปยังโมเดลเพื่อให้โมเดลสามารถตอบกลับได้ดีที่สุด เขาแนะนำว่าเมื่อใช้โมเดลที่มีขนาดเล็กหรือโมเดลที่มีข้อจำกัดในการประมวลผล คำถามหรือคำขอที่ไม่ชัดเจนหรือไม่เจาะจงพออาจทำให้โมเดลตอบผิดหรือให้คำตอบที่ไม่ตรงประเด็น

ดังนั้น การปรับแต่งคำขอให้ชัดเจนและเจาะจงจึงเป็นสิ่งสำคัญ โดยการใช้คำถามที่เป็นรูปธรรม หรือการให้คำอธิบายเพิ่มเติมเกี่ยวกับคำถามนั้นๆ จะช่วยให้โมเดลสามารถเข้าใจและตอบกลับได้ดีกว่า


ตอนที่ 13: ความสำคัญของการเลือกโมเดลให้เหมาะสมกับอุปกรณ์

ผู้สร้างเน้นย้ำว่าการเลือก โมเดล AI ที่เหมาะสมกับอุปกรณ์ที่มีข้อจำกัดด้านพลังงานและการประมวลผลเป็นสิ่งสำคัญมาก หากเลือกโมเดลที่มีขนาดใหญ่เกินไป เช่น Llama 7B หรือ Llama 3B บนอุปกรณ์ Jetson Nano Super ที่มีข้อจำกัดทั้งในด้านหน่วยความจำและพลังงาน อาจทำให้เครื่องทำงานช้าหรือหยุดทำงานได้

การเลือกโมเดลที่มีพารามิเตอร์เล็กลง เช่น DeepSeek 1.5B หรือ Llama 1B จะช่วยให้ได้ประสิทธิภาพที่ดีกว่า และยังสามารถใช้งานได้อย่างราบรื่นบนอุปกรณ์ Edge โดยไม่ต้องกังวลเกี่ยวกับปัญหาด้านพลังงาน


ตอนที่ 14: ความสามารถของ Jetson Nano Super ในการรองรับโมเดล AI

ผู้สร้างได้อธิบายถึง ความสามารถของ Jetson Nano Super ในการรองรับโมเดล AI โดยให้ข้อมูลว่าอุปกรณ์นี้มีความสามารถในการจัดการกับโมเดลที่มีขนาดเล็กถึงกลางได้ดีพอสมควร แม้จะมีข้อจำกัดด้านพลังงานและหน่วยความจำ แต่ Jetson Nano Super ก็ยังสามารถทำงานร่วมกับโมเดลต่างๆ ที่ได้รับการปรับแต่งหรือโมเดลที่มีขนาดเล็กกว่าได้อย่างมีประสิทธิภาพ

ในบางกรณี เช่น เมื่อใช้โมเดลที่มีขนาดพารามิเตอร์สูงเกินไป Jetson Nano Super อาจประสบปัญหาในการทำงาน แต่ผู้สร้างก็ได้แนะนำวิธีการจัดการและการเลือกโมเดลที่เหมาะสมเพื่อให้การทำงานราบรื่นและไม่เกิดปัญหา


ตอนที่ 15: ข้อสรุปและคำแนะนำในการใช้งาน

ผู้สร้างได้สรุปว่า การใช้โมเดล AI บนอุปกรณ์ Edge เช่น Jetson Nano Super สามารถทำได้ง่ายและสนุก โดยเฉพาะเมื่อเลือกโมเดลที่มีขนาดพารามิเตอร์เล็กถึงกลาง เช่น DeepSeek 1.5B หรือ Llama 1B โมเดลเหล่านี้ให้ผลลัพธ์ที่ดีในการทำงานในหลายๆ ด้าน เช่น การตอบคำถาม, การเขียนโค้ด, และการสร้างข้อความในรูปแบบ Chain of Thought

เขาแนะนำให้ผู้ที่สนใจเรียนรู้หรือทดลองใช้โมเดลเหล่านี้เลือกใช้โมเดลที่เหมาะสมกับอุปกรณ์ที่ใช้งาน และพยายามทำความเข้าใจเกี่ยวกับข้อจำกัดของอุปกรณ์ Edge ซึ่งจะช่วยให้สามารถใช้งานโมเดลได้อย่างมีประสิทธิภาพ
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ภาพประจำตัวสมาชิก
mindphp
ผู้ดูแลระบบ MindPHP
ผู้ดูแลระบบ MindPHP
โพสต์: 47420
ลงทะเบียนเมื่อ: 22/09/2008 6:18 pm
ติดต่อ:

Re: DeepSeek-AI ปล่อย Open Source

โพสต์ที่ยังไม่ได้อ่าน โดย mindphp »

ต่อ

ตอนที่ 16: การทดลองกับโมเดลที่แตกต่างกัน

ในตอนนี้ผู้สร้างได้ทดลองใช้โมเดล DeepSeek R1 รุ่นต่างๆ ที่มีขนาดพารามิเตอร์แตกต่างกัน เช่น DeepSeek 7B และ Llama 3B เพื่อเปรียบเทียบประสิทธิภาพและความเร็วในการประมวลผลระหว่างโมเดลที่มีพารามิเตอร์สูงและต่ำ

เขาได้ทดสอบว่าในขณะที่โมเดลที่มีขนาดพารามิเตอร์สูง เช่น Llama 7B อาจให้ผลลัพธ์ที่แม่นยำและมีความซับซ้อนมากขึ้น แต่การทำงานของโมเดลบน Jetson Nano Super ที่มีข้อจำกัดทางพลังงานและหน่วยความจำ ทำให้เกิดความล่าช้าในการประมวลผล

โดยสรุปแล้วผู้สร้างแนะนำว่า โมเดลขนาดเล็ก ยังมีความเหมาะสมที่สุดสำหรับอุปกรณ์ที่มีข้อจำกัดด้านพลังงาน โดยเฉพาะในการทำงานทั่วไปที่ไม่ต้องการความซับซ้อนสูง


ตอนที่ 17: การทำงานร่วมกับ Docker Containers

ในตอนนี้ผู้สร้างได้สาธิตการทำงานร่วมกับ Docker Containers ซึ่งช่วยให้การติดตั้งและการจัดการโมเดล AI ง่ายขึ้นบน Jetson Nano Super

เขาได้แนะนำการใช้ Docker ในการติดตั้ง DeepSeek R1 และ Llama Models บน Jetson โดยไม่ต้องทำการติดตั้งซอฟต์แวร์หลายตัวในเครื่อง ซึ่งช่วยให้การจัดการโมเดลต่างๆ ง่ายขึ้น และสามารถใช้งานโมเดล AI บนอุปกรณ์ที่มีข้อจำกัดด้านพื้นที่เก็บข้อมูลได้อย่างมีประสิทธิภาพ


ตอนที่ 18: ความสำคัญของการเลือกคำถามที่เหมาะสม

ในส่วนนี้ ผู้สร้างได้อธิบายถึงความสำคัญของการเลือกคำถามหรือคำขอที่เหมาะสมเมื่อใช้ Chain of Thought ในโมเดล AI โดยเขาแนะนำว่า คำถามที่ชัดเจนและมีความเฉพาะเจาะจง จะช่วยให้โมเดลสามารถให้คำตอบที่ตรงและมีคุณภาพมากขึ้น

เขายกตัวอย่างว่า เมื่อใช้โมเดลที่มีขนาดเล็กหรือไม่ได้รับการปรับแต่ง การตั้งคำถามที่ซับซ้อนเกินไปอาจทำให้โมเดลไม่สามารถให้คำตอบที่แม่นยำได้ ดังนั้นการตั้งคำถามในลักษณะที่ไม่ซับซ้อนจนเกินไปจะช่วยให้โมเดลตอบได้ดีกว่า


ตอนที่ 19: ความท้าทายในการใช้โมเดล AI บนอุปกรณ์ Edge

ผู้สร้างได้พูดถึง ความท้าทาย ในการใช้ โมเดล AI บนอุปกรณ์ Edge อย่าง Jetson Nano Super โดยเน้นไปที่ข้อจำกัดของฮาร์ดแวร์ เช่น พลังงาน, หน่วยความจำ, และการประมวลผล ที่อาจทำให้ไม่สามารถใช้งานโมเดลที่มีขนาดใหญ่ได้อย่างเต็มที่

แม้ว่าจะมีโมเดลที่เหมาะสมกับอุปกรณ์ Edge อยู่ แต่การทำงานที่ต้องการประสิทธิภาพสูงและการคำนวณที่ซับซ้อน อาจจะยังคงมีข้อจำกัดอยู่บ้าง ผู้สร้างแนะนำให้เลือกโมเดลที่เหมาะสมกับการใช้งานและไม่ต้องการพลังงานมากเกินไปเพื่อหลีกเลี่ยงปัญหาความช้า


ตอนที่ 20: สรุปข้อดีและข้อเสียของการใช้งานโมเดล AI บนอุปกรณ์ Edge

ในตอนนี้ ผู้สร้างได้สรุปข้อดีและข้อเสียของการใช้งาน โมเดล AI บนอุปกรณ์ Edge อย่าง Jetson Nano Super ซึ่งสามารถใช้งานได้ดีในกรณีที่ต้องการประหยัดพลังงานและลดการใช้ทรัพยากร แต่ก็มีข้อจำกัดในการประมวลผลที่มีความซับซ้อนสูง

ข้อดี:
การใช้งานโมเดล AI บนอุปกรณ์ Edge ช่วยประหยัดพลังงานและลดการใช้ทรัพยากร
สามารถใช้งานโมเดลขนาดเล็กถึงกลางได้อย่างมีประสิทธิภาพ
เหมาะสำหรับการทดสอบและเรียนรู้เกี่ยวกับ AI ในสภาพแวดล้อมที่ไม่ต้องการเครื่องจักรที่มีพลังประมวลผลสูง

ข้อเสีย:
การประมวลผลที่ซับซ้อนและโมเดลที่มีขนาดพารามิเตอร์สูงอาจทำให้เกิดความล่าช้า
ข้อจำกัดด้านหน่วยความจำและพลังงานอาจจำกัดการใช้งานในบางสถานการณ์


ตอนที่ 21: คำแนะนำสำหรับผู้ที่สนใจ

ผู้สร้างได้ให้คำแนะนำสำหรับผู้ที่สนใจใช้งาน โมเดล AI บนอุปกรณ์ Edge ว่า การเลือกโมเดลที่มีขนาดพารามิเตอร์เล็กถึงกลาง เป็นสิ่งสำคัญ เนื่องจากจะช่วยให้การใช้งานราบรื่นและมีประสิทธิภาพ

นอกจากนี้ เขายังแนะนำให้ผู้ใช้งานเรียนรู้เกี่ยวกับ Docker และ WebUI ซึ่งจะช่วยให้สามารถจัดการและทดสอบโมเดล AI ได้สะดวกมากยิ่งขึ้น โดยไม่ต้องพึ่งพาเทคนิคการเขียนคำสั่งที่ซับซ้อน

ตอนที่ 22: การทดสอบการใช้งานจริงกับ Jetson Nano Super

ในตอนนี้ผู้สร้างได้ทำการทดสอบการใช้งาน DeepSeek R1 และ Llama Models บน Jetson Nano Super ในสถานการณ์ที่ใกล้เคียงกับการใช้งานจริงมากขึ้น โดยเขาได้สร้างคำถามและข้อกำหนดที่หลากหลายเพื่อตรวจสอบว่าโมเดลเหล่านี้สามารถตอบสนองได้ดีแค่ไหนในสภาพแวดล้อมการใช้งานจริง

เขาแนะนำว่าการทดสอบเช่นนี้ช่วยให้เราเห็นภาพรวมของความสามารถในการทำงานของโมเดลและอุปกรณ์ การทดสอบที่ทำบน Jetson Nano Super ก็แสดงให้เห็นว่าโมเดลที่มีขนาดเล็กถึงกลางนั้นสามารถทำงานได้ดีในกรณีทั่วไป โดยไม่ต้องมีพลังประมวลผลสูงเกินไป


ตอนที่ 23: ปัญหาที่เกิดขึ้นระหว่างการทดสอบ

ผู้สร้างพูดถึงปัญหาที่เขาเจอระหว่างการทดสอบโมเดล เช่น ปัญหาการประมวลผลช้า เมื่อโมเดลขนาดใหญ่ถูกรันบนอุปกรณ์ที่มีทรัพยากรจำกัด เช่น Jetson Nano Super นอกจากนี้ยังมีปัญหาที่เกิดจาก ข้อจำกัดด้านหน่วยความจำ เมื่อโมเดลที่มีขนาดใหญ่ไม่สามารถโหลดได้ทั้งหมดภายในเครื่อง หรือโมเดลที่ใช้พลังงานมากเกินไปทำให้ระบบล้มเหลว

อย่างไรก็ตามเขาได้ให้คำแนะนำเกี่ยวกับการใช้ เทคนิคการปรับแต่งโมเดล และ การเลือกโมเดลที่เหมาะสมกับอุปกรณ์ เพื่อหลีกเลี่ยงปัญหาดังกล่าว และยังแนะนำให้ผู้ใช้งานทดลองใช้โมเดลที่มี พารามิเตอร์ต่ำ ที่รองรับการทำงานกับอุปกรณ์ที่มีข้อจำกัดได้ดีขึ้น


ตอนที่ 24: การแนะนำเครื่องมือและแพลตฟอร์มที่ใช้

ในตอนนี้ ผู้สร้างได้แนะนำเครื่องมือและแพลตฟอร์มที่ช่วยให้การทำงานกับ โมเดล AI บนอุปกรณ์ Edge เช่น Jetson Nano Super เป็นไปได้อย่างมีประสิทธิภาพ รวมถึงการใช้ Docker และ Web UI ซึ่งทั้งสองเครื่องมือช่วยในการจัดการโมเดลและการทำงานร่วมกับ DeepSeek R1 และ Llama Models

เขาแนะนำให้ผู้ที่เพิ่งเริ่มต้นกับการใช้งาน Jetson Nano Super หรืออุปกรณ์ Edge อื่นๆ ใช้เครื่องมือเหล่านี้เพื่อทำให้การทดลองและการใช้งานโมเดลต่างๆ เป็นไปได้ง่ายขึ้นและสะดวกมากยิ่งขึ้น


ตอนที่ 25: การทดสอบความเร็วและประสิทธิภาพ

ผู้สร้างได้ทดสอบความเร็วและประสิทธิภาพของการประมวลผลโมเดลบน Jetson Nano Super ในสถานการณ์ต่างๆ โดยมีการวัดความเร็วในการตอบคำถามและเวลาที่ใช้ในการประมวลผลคำขอต่างๆ สำหรับ DeepSeek R1 และ Llama Models ที่เขานำมาทดสอบ

ผลลัพธ์ที่ได้แสดงให้เห็นว่า โมเดลที่มีพารามิเตอร์น้อย เช่น DeepSeek 1.5B สามารถทำงานได้รวดเร็วและมีประสิทธิภาพสูงเมื่อทำงานบนอุปกรณ์ Edge เช่น Jetson Nano Super แต่ในกรณีของ โมเดลที่มีขนาดพารามิเตอร์สูง เช่น Llama 7B หรือ Llama 3B จะมีการช้าลงของการประมวลผลมากขึ้น ซึ่งเป็นผลมาจากข้อจำกัดด้านทรัพยากรของอุปกรณ์


ตอนที่ 26: ข้อเสนอแนะสำหรับการใช้งานในสภาพแวดล้อมการทำงานจริง

ผู้สร้างให้ข้อเสนอแนะเกี่ยวกับการใช้งาน โมเดล AI ในสภาพแวดล้อมการทำงานจริง โดยแนะนำว่าให้เลือกใช้ โมเดลที่มีพารามิเตอร์ต่ำ ในกรณีที่ต้องการประมวลผลข้อมูลจำนวนมากหรือใช้ในงานที่ต้องการความเร็วในการตอบกลับสูง

นอกจากนี้เขายังแนะนำให้ผู้ใช้ที่สนใจใช้งานโมเดล AI บนอุปกรณ์ Edge ต้องพิจารณาข้อจำกัดด้าน พลังงาน, หน่วยความจำ, และ ความเร็วในการประมวลผล และทำความเข้าใจเกี่ยวกับข้อจำกัดเหล่านี้ก่อนที่จะเลือกโมเดลที่เหมาะสมกับงานที่ต้องการ


ตอนที่ 27: ข้อสรุปและทิศทางในอนาคต

ในตอนสุดท้าย ผู้สร้างได้สรุปเกี่ยวกับการทดสอบและประสบการณ์ที่ได้รับจากการใช้งาน DeepSeek R1 และ Llama Models บน Jetson Nano Super โดยเขาเน้นย้ำถึงความสำคัญของการเลือกโมเดลที่เหมาะสมกับ อุปกรณ์ Edge และข้อจำกัดที่มี รวมถึงการเลือกโมเดลที่มีขนาดเล็กและเหมาะสมกับการใช้งานทั่วไปในสภาพแวดล้อมที่ไม่ต้องการการประมวลผลที่ซับซ้อน

เขายังแนะนำให้ผู้สนใจเรียนรู้และทดลองใช้งาน โมเดล Chain of Thought และ การประมวลผลเชิงลึก (Deep Learning) ซึ่งจะช่วยให้การใช้งานโมเดล AI บนอุปกรณ์ Edge มีประสิทธิภาพมากยิ่งขึ้นในอนาคต
ติดตาม VDO: http://www.youtube.com/c/MindphpVideoman
ติดตาม FB: https://www.facebook.com/pages/MindphpC ... 9517401606
หมวดแชร์ความรู้: https://www.mindphp.com/forums/viewforum.php?f=29
รับอบรม และพัฒนาระบบ: https://www.mindphp.com/forums/viewtopic.php?f=6&t=2042
ตอบกลับโพส
  • Similar Topics
    ตอบกลับ
    แสดง
    โพสต์ล่าสุด

ผู้ใช้งานขณะนี้

สมาชิกกำลังดูบอร์ดนี้: ไม่มีสมาชิกใหม่ และบุคลทั่วไป 1