ย้อนกลับ

ผู้เชี่ยวชาญด้าน AI กังวลเกี่ยวกับ AI Chatbot ของ Meta

author avatar

เขียนโดย
Azmi Boonmalert

editor avatar

แก้ไขโดย
Nonthachai Sukkankosol

03 สิงหาคม พ.ศ. 2566 12:00 ICT
เชื่อถือได้
  • มีข่าวเผยว่า Meta เตรียมจะเปิดตัว AI Chatbot ที่มี "Persosnas" หรือลักษณะนิสัยแตกต่างกันเพื่อตอบโจทย์ผู้ใช้งานหลากหลาย
Promo

มีรายงานว่า Meta วางแผนที่จะเปิดตัว AI Chatbot ที่มีบุคลิกแตกต่างกันเพื่อดึงดูดผู้ใช้งานประเภทต่าง ๆ อย่างไรก็ตาม แผนการดังกล่าวนำไปสู่คำถามเกี่ยวกับผลกระทบต่อความเป็นส่วนตัวของผู้ใช้

บริษัท AI หลายแห่ง ๆ กำลังแข่งกันเปิดตัวแชทบอทของตนเอง และขณะนี้นี้ Meta ของ Mark Zuckerberg ต้องการแข่งขันกับบริษัทเรือธงด้าน AI อย่าง Google และ OpenAI

Meta วางแผนใช้ AI Chatbots สำหรับการทำฟาร์มข้อมูล

Sponsored
Sponsored

Financial Times เผยว่าแหล่งข่าววงในจาก Meta ว่าทางบริษัทมีแผนที่จะเปิดตัว AI Chabot สำหรับผู้ใช้สี่พันล้านคนภายในเดือนกันยายน 2023 โดยเจ้าหน้าที่ Meta เรียกมันว่า “Personas” เพราะพวกมันสามารถสื่อสารผ่านการพูดได้เหมือนมนุษย์ที่มีบุคลิกแตกต่างกัน หรือสามารถสื่อสารได้เหมือนบุคคลในประวัติศาสตร์ที่มีชื่อเสียง เช่น อับราฮัม ลินคอล์น เป็นต้น

Meta owner Mark Zuckerberg announced the launch of AI-powered chatbots with personas

แหล่งข่าวกล่าวว่าจุดประสงค์หลักของแชทบอทตัวดังกล่าวคือการสร้างการมีส่วนร่วมกับผู้ใช้งาน อย่างไรก็ตาม แหล่งข่าวยังกล่าวด้วยว่า Personas สามารถรวบรวมข้อมูลจากผู้ใช้งานได้จำนวนมหาศาลเพื่อยิงโฆษณาที่ตรงกลุ่มเป้าหมาย

ว่าด้วการเก็บรวบรวมข้อมูล ทาง Ravit Dotan ที่ปรึกษาด้านจริยธรรมของ AI กล่าวว่า:

“เมื่อผู้ใช้งานโต้ตอบกับแชทบอท มันจะเปิดเผยส่งข้อมูลของผู้ใช้งานไปยังบริษัทมากยิ่งขึ้น เพื่อให้บริษัทสามารถทำทุกอย่างที่พวกเขาต้องการกับข้อมูลนั้น”

ทั้งนี้ ยังไม่มีการยืนยันอย่างเป็นทางการเกี่ยวกับการพัฒนาจาก Meta อย่างไรก็ตาม ในการเรียกรายได้ Mark Zuckerberg กล่าวว่าบริษัทจะแถลงการณ์แผนงานด้าน AI ในเดือนกันยายน 2023

ข้อจำกัดความรับผิดชอบ

หมายเหตุบรรณาธิการ: เนื้อหาต่อไปนี้ไม่ได้สะท้อนถึงมุมมองหรือความคิดเห็นของ BeInCrypto มันจัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลเท่านั้นและไม่ควรถูกตีความว่าเป็นคำแนะนำทางการเงิน กรุณาทำการวิจัยของคุณเองก่อนที่จะทำการตัดสินใจลงทุนใดๆ ทั้งนี้เป็นไปตาม แนวทางของ Trust Project ของเรา และโปรดอ่าน ข้อกำหนดและเงื่อนไข, นโยบายความเป็นส่วนตัว และ ข้อจำกัดความรับผิดชอบ ของเรา