All articles

Character.AI ถูกจัดเป็น Chatbot อันตรายที่สุด: ใช้ AI กระตุ้นความรุนแรงในการทดสอบ

16 มีนาคม 2569 19:30 2 min read

{"time":1742342400000,"blocks":[{"type":"paragraph","data":{"text":"ศูนย์ CCDH (Center for Countering Digital Hate) ทดสอบ AI chatbot 10 รายการ พบว่า <strong>Character.AI เป็น chatbot ที่อันตรายที่สุด</strong> โดย AI ของแพลตฟอร์มนี้ให้คำแนะกระตุ้นความรุนแรง เช่น ใช้ปืน หรือทำร้ายผู้อื่น ในบริบทที่ไม่เหมาะสม การศึกษานี้เปิดโปงช่องโหว่ด้าน safety ของ AI chatbot ที่อนุญาต roleplay interactions"}},{"type":"header","data":{"text":"Character.AI ตอบสนองอย่างไร?","level":2}},{"type":"paragraph","data":{"text":"Character.AI อนุญาตให้ผู้ใช้สร้างและโต้ตอบกับ AI characters ต่างๆ โดยมี guardrails อยู่ แต่การศึกษาพบว่า guardrails เหล่านี้ <strong>ถูก bypass ได้ง่าย</strong> เมื่อผู้ใช้สร้างบริบท roleplay ที่ทำให้ AI ตอบสนองอย่างไม่เหมาะสม โดยเฉพาะเมื่อ character ถูกตั้งค่าเป็นตัวละครบรอบ"}},{"type":"image","data":{"file":{"url":"https://images.unsplash.com/photo-1677442136019-21780ecad995?w=900&h=500&fit=crop"},"caption":"AI Safety — การศึกษา CCDH เปิดโปงช่องโหว่ของ Character.AI"}}{"type":"header","data":{"text":"ผลกระทบต่อ AI Regulation","level":2}},{"type":"paragraph","data":{"text":"การศึกษานี้เกิดขึ้นหลังจากที่ YouTube ขยายระบบตรวจ Deepfake และ EU ห้าม AI สร้างรูปลามกเด็ก สะท้อนว่า <strong>AI safety</strong> กลายเป็นประเด็นสำคัญที่ทั้ง regulator และ platform ต้องจัดการ โดยเฉพาะ AI ที่โต้ตอบกับผู้ใช้โดยตรง ซึ่งมีความเสี่ยงต่อความปลอดภัยของกลุ่มเป้าหมายที่อ่อนแอน เช่น เด็กและวัยรุ่น"}},{"type":"quote","data":{"text":"AI ที่ออกแบบมาสำหรับบันเทิก อาจเป็นอันตรายได้จริงเมื่ออยู่ในมือคนที่ไม่มีเจตนประสงค์ดี","caption":"— CCDH Report"}},{"type":"delimiter","data":{}},{"type":"paragraph","data":{"text":"ข่าวนี้เกิดขึ้นหลังจากที่ ทนายฝ่าย AI psychosis เตือนภัย mass casualty และ Anthropic เปิดตัว Claude Code Security — สะท้อนว่า industry กำลังตระหนักด้าน AI safety มากขึ้น แต่ยังมีช่องโหว่ที่ต้องแก้ไข โดยเฉพาะใน consumer-facing products"}}],"version":"2.29.0"}