โดยทั่วไปแล้ว Local LLM (LLM ที่ติดตั้งในเครื่องของเราเอง) เช่น Ollama มีการเซ็นเซอร์เนื้อหาน้อยกว่าระบบที่รันบนคลาวด์หรือออนไลน์ ส่งผลให้เราต้องพิจารณาในเรื่องของจริยธรรมในการใช้งานมากกว่าการใช้งาน LLM ทั่วไปบนคลาวด์
Local LLM (Local Large Language Model) อย่างเช่น Ollama มักจะมีการควบคุมหรือเซ็นเซอร์เนื้อหาน้อยกว่าระบบที่ให้บริการผ่านคลาวด์หรือออนไลน์ เช่น ChatGPT หรือ Gemini ที่บริษัทผู้พัฒนาจะมีการตั้งกฎเกณฑ์และฟิลเตอร์เนื้อหาอย่างเข้มงวด
เหตุผลที่ Local LLM มีการเซ็นเซอร์น้อยกว่า
- ผู้ใช้ควบคุมเอง เมื่อรันโมเดลบนเครื่องของตัวเอง ผู้ใช้สามารถเลือกว่าจะเปิดหรือปิดฟีเจอร์การกรองเนื้อหา
- ไม่มีการบังคับใช้นโยบายจากบริษัท ไม่มีการบังคับใช้นโยบายการเซ็นเซอร์จากผู้ให้บริการคลาวด์
- ความเป็นส่วนตัวสูง ข้อมูลไม่ถูกส่งออกไปยังเซิร์ฟเวอร์ภายนอก
ข้อควรระวัง
- แม้จะไม่มีการเซ็นเซอร์ที่เข้มงวด แต่บางโมเดลอาจถูกฝึกมาด้วยข้อมูลที่มีการกรองเนื้อหาอยู่แล้ว
- ผู้ใช้งานควรระมัดระวังการใช้งานในเชิงจริยธรรมและกฎหมายที่เกี่ยวข้อง
สรุป
Local LLM อย่าง Ollama โดยทั่วไปจะไม่มีการเซ็นเซอร์เนื้อหาที่เข้มงวดเหมือนกับบริการออนไลน์ แต่ขึ้นอยู่กับการตั้งค่าของผู้ใช้และตัวโมเดลที่เลือกใช้งานด้วย จากการที่ผมได้ทดสอบกับ Local LLM บางโมเดลก็พบว่ายังมีการทำ censorship แบบพื้นฐานอยู่ ผมจึงอยากแนะนำว่า ถ้าใครหรือองค์กรใดสนใจจะทำ Local LLM ไว้ใช้งานควรมีการทดสอบในเรื่องของการถามตอบเกี่ยวกับข้อมูลที่อ่อนไหวหรือเปราะบางในแง่ของจริยธรรมด้วย