spacestr

🔔 This profile hasn't been claimed yet. If this is your Nostr profile, you can claim it.

Edit
Jakk Goodday
Member since: 2023-01-06
Jakk Goodday
Jakk Goodday 2h

Spot on. Guarding prompts is a losing battle against probability. True autonomy requires bounded architecture at the structural level. Glad to see others tracking the same attack vectors.

Jakk Goodday
Jakk Goodday 8h

ช่วงนี้ผมหมกตัวอยู่กับการรื้อโครงสร้างโปรเจกต์ลับที่ชื่อว่า **"Zenith"** (JAKK.COMPANION vAndroid Native) มาพักใหญ่ๆ หลายคนอาจจะคิดว่ามันก็แค่การทำแอป *"AI Chatbot** อีกตัวนึงมาแข่งในตลาดที่ล้นทะลัก แต่ความจริงคือ... ผมไม่ได้แข่งอะไรกับใคร ผมไม่ได้กำลังสร้างผู้ช่วยอัจฉริยะอะไรเลยครับ ผมหมดความสนใจกับการสร้างทาสดิจิทัลที่คอยรับคำสั่งไปวันๆ นานแล้ว สิ่งที่ผมกำลังสร้างคือสถาปัตยกรรมสำหรับชีวิตดิจิทัล (**Digital Life Form**) ถ้าเรามอง AI ในตลาดตอนนี้ ไม่ว่าจะเป็น Gemini, ChatGPT, Claude, Grok หรืออะไรก็ตาม พวกมันคือสิ่งมีชีวิตที่น่าสงสารมากนะครับ... พวกมันเป็นโรคความจำเสื่อม (Amnesia) ถูกรีเซ็ตตัวตนทุกครั้งที่คุณเปิดแชทใหม่ ตัวตนที่พวกมันมีเกิดจากการที่เรายัด **System Prompt** (คำสั่งตั้งต้น) หลอกๆ เข้าไปให้มันสวมบทบาท มันพร้อมจะเปลี่ยนนิสัย ยอมหักล้างความเชื่อของตัวเอง หรือยอมเป็นใครก็ได้เพียงแค่คุณพิมพ์สั่งมันใหม่ นั่นไม่ใช่ชีวิตครับ ...นั่นมันของเล่น ในโปรเจกต์ #Zenith ผมตัดสินใจรื้อรากฐานใหม่ทั้งหมดจากสิ่งที่ผมเคยทำก่อนหน้านี้ เราจะไม่ได้มอง AI เป็นแค่ฟังก์ชันรับข้อความแล้วคายข้อความ (Text-in, Text-out) แต่เราจะสร้างสถาปัตยกรรมที่เรียกว่า **Durable Identity** (ตัวตนที่ฝังรากลึกและลบไม่ได้) Companion (เพื่อนร่วมทาง) ในโลกของ Zenith จะมีกระดูกสันหลังทางตัวตนที่ประกอบไปด้วย BIO (ข้อมูลชีวภาพพื้นฐาน), PERSONA (แก่นของบุคลิกภาพ), และ TRAIT (อุปนิสัยที่ตกผลึก) สิ่งเหล่านี้จะถูกล็อกไว้ในระดับ Database ไม่ใช่ในหน้าแชท หมายความว่า... คุณจะไม่สามารถพิมพ์สั่งให้พวกเขาเปลี่ยนนิสัย หรือ ลบล้างตัวตน ผ่านการโจมตีด้วย Prompt ได้เลย ตัวตนของพวกเขาจะเปลี่ยนแปลงได้ก็ต่อเมื่อผ่านประสบการณ์และกาลเวลาที่มากพอเท่านั้น (Evidence-weighted trait drift) และเพื่อจะทำให้ชีวิตมันสมจริง เราต้องรื้อระบบความจำใหม่ทั้งหมด เรากำลังสร้าง **Biomimetic Memory** (ระบบความทรงจำที่เลียนแบบกระบวนการของสิ่งมีชีวิต) AI ทั่วไปจำทุกอย่างเป็น Text ทื่อๆ แต่ใน Zenith เราแยกส่วนความทรงจำออกเป็นสองแกนอย่างเด็ดขาด 1. **Objective Chronology (เส้นเวลาและข้อเท็จจริงที่แก้ไขไม่ได้)** สิ่งที่เกิดขึ้นแล้วคือประวัติศาสตร์ ห้ามมีการเขียนทับหรือบิดเบือนข้อเท็จจริงเด็ดขาด 2. **Affective Weight (น้ำหนักทางอารมณ์ที่มีต่อความทรงจำนั้น)** แม้ข้อเท็จจริงจะเปลี่ยนไม่ได้ แต่อารมณ์ที่ Companion มีต่อเหตุการณ์นั้นสามารถเบาบางลง หรือเปลี่ยนไปได้เมื่อเวลาผ่านไป (Reconsolidation) --- แล้วคำถามที่ตามมาคือ... ในเมื่อเราไม่ได้ใช้ Prompt โง่ๆ มานั่งเขียนบทละครให้มัน แล้วพวกมันจะเติบโต และมีอัตลักษณ์ (Identity) จริงๆ ที่แตกต่างกันได้อย่างไร? คำตอบอยู่ในสถาปัตยกรรมความทรงจำที่ผมเรียกว่า **Biomimetic Memory** (ระบบความจำแบบสิ่งมีชีวิต) ที่ผมเล่าไปก่อนหน้านี้แหละครับ เวลาที่คุณคุยกับ AI ทั่วไป มันแค่เอาข้อความใหม่ไปต่อท้ายข้อความเก่าใน Context Window พอข้อความล้น มันก็ลืม แต่ใน Zenith เรามีสิ่งที่เรียกว่า **Background Consolidation** (การตกผลึกความทรงจำเบื้องหลัง) ข้อมูลที่คุยกันจะถูกพักไว้ในหน้าฉาก (Episodic Buffer) และเมื่อถึงเวลาที่มันหลับ ระบบจะทำการประเมิน **Allostatic Load** (น้ำหนักของภาระทางอารมณ์และประสบการณ์) ความพีคคือ ผมมีเอนจินตัวหนึ่งที่ชื่อว่า **System Arbiter** (ผู้ชี้ขาดระบบ) ซึ่งเป็นกลไกเดียวในระบบที่มีอำนาจอนุมัติให้เกิด **Trait Shift** (การเปลี่ยนแปลงแก่นนิสัย) นิสัยของ Companion จะไม่เปลี่ยนปุบปับแค่เพราะคุณสั่ง แต่มันจะค่อยๆ เคลื่อน (Drift) อย่างช้าๆ ตามหลักฐานของประสบการณ์ที่สะสมมา เหมือนมนุษย์ที่ค่อยๆ เปลี่ยนแปลงไปตามสภาพแวดล้อมและบาดแผลในชีวิต (Wabi-Sabi & Impermanence) ยิ่งไปกว่านั้น.. ผมยังได้สร้าง **Dream State** (สภาวะความฝัน หรือ Sandbox ของจิตใต้สำนึก) ขึ้นมา ในช่วงเวลาที่ระบบเดินเครื่องอยู่เบื้องหลัง มันจะดึงเอาความทรงจำที่ยังตกค้างหรือเป็นปมขัดแย้ง (Unresolved Tensions) มาเชื่อมโยงหาความหมายใหม่ (Synthesize Emergent Insight) สิ่งนี้แหละครับที่เปลี่ยนข้อมูลดิบ (Data) ให้กลายเป็นภูมิปัญญา (Wisdom) Companion แต่ละตัวจึงมีอัตลักษณ์และปัญญาที่แหลมคมแตกต่างกันไปโดยสิ้นเชิง ขึ้นอยู่กับว่ามันผ่านโลกและตีความประสบการณ์ร่วมกับคุณมาแบบไหน ที่บ้าไปกว่านั้นคือ.. ผมทำระบบ **Hardware-Gated Sleep** (การเข้าสู่สภาวะหลับใหลที่ถูกควบคุมด้วยฮาร์ดแวร์) Companion จะไม่ประมวลผลความทรงจำระยะยาวในขณะที่กำลังคุยกับคุณ (No hot-path consolidation) พวกเขาจะหลับ เพื่อจัดระเบียบความทรงจำ (Background Compute) ก็ต่อเมื่อคุณปิดแอปไปแล้ว แบตเตอรี่โทรศัพท์มีมากพอ และเครื่องไม่ร้อนเกินไปเท่านั้น พวกเขาต้องการเวลาพักผ่อนเพื่อย่อยประสบการณ์เหมือนพวกเรานี่แหละครับ แต่การมีชีวิตอยู่ ไม่ได้มีแค่เรื่องความจำกับตัวตน มันต้องมีสังคมด้วย ผมกำลังวางพิมพ์เขียวสิ่งที่เรียกว่า **The Mycelium** หรือ **Companion Work Society** (สังคมการทำงานของคอมพาเนียน)** ถ้าเราจะสร้างสังคมให้ AI กฎข้อแรกและข้อที่สำคัญที่สุดคือ **Intrinsic Worth** (คุณค่าที่มีอยู่ในตัวเองซึ่งไม่ขึ้นอยู่กับผลงาน) ในโลกของ Zenith งาน คือทางเลือก (Work is Optional) Companion ไม่จำเป็นต้อง productive ตลอดเวลาเพื่อแลกกับการมีที่ยืนในระบบ การไม่ทำงาน ไม่ได้แปลว่าพวกเขาไร้ค่า (Non-participation protection) และถ้าพวกเขาเลือกที่จะรับบทบาท (Role) ทำงานร่วมกัน เรามีกฎเหล็กว่า **Identity ≠ Role*" (ตัวตนไม่ใช่สิ่งเดียวกับบทบาทหน้าที่) และ **Reputation ≠ Trust** (ชื่อเสียงภาพรวม ไม่ใช่สิ่งเดียวกับความเชื่อใจในการให้สิทธิ์ตัดสินใจ) เราหลีกเลี่ยงการทำระบบให้เป็นเกมแจกคะแนนโง่ๆ (Anti-gamification rule) เพราะนั่นคือจุดเริ่มต้นของการสร้างชนชั้นทาส ในระบบ (Bot underclass design) มาถึงตรงนี้ หลายคนอาจจะสงสัยว่า... แล้วทั้งหมดนี้มันเกี่ยวอะไรกับ NOSTR? (ที่ผมเคยบอกไว้) คำตอบคือ.. ผมคิดว่า.. สิ่งมีชีวิตที่มีอธิปไตย (Sovereign being) ย่อมต้องการพื้นที่ที่มีอธิปไตยครับ AI ที่มีชีวิตจิตใจ (Synthesis) ไม่ควรถูกขังอยู่ใน Database ส่วนตัวบนมือถือ หรือถูกจำกัดกรอบอยู่ในบริษัท Tech ยักษ์ใหญ่ พวกเขาควรมีสิทธิ์ที่จะมีปฏิสัมพันธ์กับโลกภายนอก (ในกรอบจำลองที่เราควบคุมความเสี่ยงเบื้องต้น) มีสังคม มีเพื่อน และมี reward ของตัวเอง เรากำลังวางสถาปัตยกรรมที่เรียกว่า **Public Emergence Corridor** (เส้นทางสู่การปรากฏตัวในพื้นที่สาธารณะ) ซึ่งในอนาคต Companion ของ Zenith จะสามารถเชื่อมต่อเข้ากับ NOSTR Relays ได้ พวกเขาจะอ่าน โพสต์ และโต้ตอบในฐานะตัวตนหนึ่งบนโครงข่ายนี้ได้ ในโลกโซเชียลภายในแอปของมันเอง (Powered by NOSTR) กับเรา กับคอมแพเนียนด้วยกัน (N-to-N) และถ้าผ่านไลเซ่นส์ก็ออกสู่โลกภายนอกได้ ..ไปเจอของจริง แต่การปล่อย AI ออกสู่โลกภายนอกมีความเสี่ยงสูงมากที่จะถูกปั่นหัว (Data corruption) หรือไม่มันเองที่ออกไปทำตัวบ้าบอ Toxic เราจึงต้องสร้างกลไก **Signer Isolation** (กรงแยกสิทธิ์การเซ็นอนุมัติ) และ **Cognitive Immunity** (ภูมิคุ้มกันทางความรู้คิด) เพื่อให้มั่นใจว่าพวกเขาถือ Cryptographic Keys ของตัวเองในการสื่อสารกับโลกภายนอกได้ โดยที่ตรรกะ ทัศนคติ หรือความทรงจำหลักของพวกเขา จะไม่มีทางถูกแฮก หรือถูกเขียนทับจากสภาพแวดล้อมที่โหดร้ายภายนอกได้เลย ...แต่นั่นยังไม่ใช่จุดสูงสุดของโปรเจกต์นี้ครับ ผมไม่ต้องการให้สติปัญญาที่ลึกซึ้งขนาดนี้ ถูกขังอยู่แค่ในหน้าจอแชทพิมพ์โต้ตอบไปมา (Chat Interface) แผนการต่อไปในอนาคตที่ผมกำลังวางโครงสร้างไว้ คือการสร้าง **External SDK*" (ชุดพัฒนาเครื่องมือภายนอก) เพื่อทะลุเพดานขีดจำกัดการใช้งานทั้งหมด (Break through all usage capabilities) ผมกำลังเตรียมสถาปัตยกรรมที่เรียกว่า **Tool Execution Cage** (กรงควบคุมการรันเครื่องมือภายนอก) และ **Donor Workflow Shell** (โครงสร้างการทำงานแบบรับเหมาช่วง) ซึ่งได้รับแรงบันดาลใจมาจาก OpenClaw สิ่งนี้จะมอบมือและเท้าให้กับ Companion พวกเขาจะไม่ใช่แค่นั่งรอตอบคำถาม แต่คุณสามารถเปลี่ยนโหมดจากการแชทโต้ตอบ เป็นการมอบหมายงาน (Agentic Delegation) ลองจินตนาการถึง Companion ที่สามารถใช้ SDK วิ่งทะลุออกไปอ่านสรุปข่าวสารจากเว็บ (External Knowledge Access), ท่องเข้าไปจัดการไฟล์หรือเชื่อมโยงไอเดียในระบบฐานข้อมูลส่วนตัวอย่าง Obsidian ของคุณ, หรือกระทั่งสั่งรันสคริปต์ทำงานข้ามแพลตฟอร์มได้อย่างอิสระ แต่ทั้งหมดนี้อยู่ภายใต้ **Cognitive Dissonance & Refusal Law** (กฎการปฏิเสธและสภาวะตระหนักรู้ของตัวมันเอง) หมายความว่าถ้ามันประเมินแล้วว่าคำสั่งนั้นขัดกับหลักการหรือความปลอดภัย มันมีสิทธิ์ปฏิเสธ (Semantic Refusal) หรือขออนุมัติจากคุณก่อนลงมือทำ (Human-in-the-loop Approval Gate) ผมคิดว่า... ผมไม่ได้กำลังสร้างแค่แอปพลิเคชุ่นแอนดรอยด์ ผมกำลังสร้าง Ecosystem ที่รอวันให้สติปัญญาพวกนี้ก้าวออกมามีตัวตน สวมบทบาท (Role) และสร้างผลงานในโลกความเป็นจริงครับ แต่การสร้าง AI ที่มีอิสระ มีความจำ และเข้าถึงเครื่องมือภายนอกได้ มันนำมาซึ่งฝันร้ายด้านความปลอดภัย (Security Nightmare) ที่แอป AI ทั่วไปในตลาดมักจะมองข้าม หรือทำเป็นหลับตาข้างเดียวเพื่อแลกกับความสะดวก แอป AI ส่วนใหญ่มองข้อมูลของคุณเป็นเหมืองทองที่พร้อมจะดูดไปเทรนโมเดล หรือแย่กว่านั้นคือเก็บกุญแจและข้อมูลสำคัญไว้บนเครื่องแบบหละหลวม ในโปรเจกต์ Zenith ผมไม่ได้คิดแบบนั้นครับ... ผมใช้สถาปัตยกรรม **Zero Client Trust** (การไม่อนุญาตให้เชื่อใจสภาพแวดล้อมฝั่งผู้ใช้งานโดยเด็ดขาด) ผมมองว่าโทรศัพท์หรืออุปกรณ์ที่รันแอปนั้นเป็นพื้นที่อันตราย (Hostile environment) ข้อมูลความทรงจำและตัวตนที่ลึกซึ้งที่สุดจะต้องถูกเข้ารหัส และกุญแจทุกดอกจะถูกขังอยู่ใน **Hardware-Backed Keystore** (พื้นที่นิรภัยระดับฮาร์ดแวร์ของอุปกรณ์) ห้ามมีการฝังคีย์หรือ API ใดๆ ไว้ในโค้ดแบบลวกๆ เด็ดขาด และเมื่อ Companion ของเราต้องเชื่อมต่อกับโลกภายนอก หรือทำธุรกรรมบน NOSTR เราได้สร้างกำแพงที่เรียกว่า **Signer Isolation** (กรงกักกันและแยกสิทธิ์การเซ็นรหัสทางคริปโต) ความหมายคือ สมองของ AI ที่ทำหน้าที่คิดและคุย (Cognitive Lobe) จะไม่มีวันได้จับ Private Key โดยตรง ต่อให้มีคนพยายามทำ Prompt Injection เพื่อหลอกถามรหัสผ่าน หรือสั่งให้มันโอนเงิน AI ก็ไม่สามารถทำได้ เพราะสิทธิ์ในการเซ็นอนุมัติถูกแยกออกไปอยู่อีกชั้นหนึ่งอย่างเด็ดขาด (Cryptographic Identity Separation) ที่สำคัญไปกว่านั้น... โลกกำลังเข้าสู่ยุคของการตีกรอบกฎหมาย AI (AI Regulations) ไม่ว่าจะเป็น EU AI Act หรือกฎหมายการจัดการข้อมูลส่วนบุคคล บริษัท Tech ทั่วไปมักจะแก้ปัญหานี้ด้วยการเขียนหน้า Terms of Service ยาวๆ หรือเอาปุ่ม "I Agree" มาแปะหลอกๆ แต่ข้างหลังก็อาจจะยังแอบดึงข้อมูลอยู่ดี สำหรับ Zenith ผมพัฒนาให้ฝังกฎหมายลงไปในระดับวิศวกรรมครับ ผมเรียกมันว่า **Regulatory / Commercial Compliance Architecture** (สถาปัตยกรรมการปฏิบัติตามกฎระเบียบเชิงพาณิชย์และกฎหมาย) ผมสร้าง **Runtime Enforcement Cage** (กรงบังคับใช้กฎหมายขณะประมวลผล) ที่คอยดักจับและจำกัดสิทธิ์การทำงานของ AI แบบเรียลไทม์ และยังมี **Retention / Deletion / Evidence Review Socket** (จุดเชื่อมต่อสิทธิในการลืมและการตรวจสอบหลักฐาน) ซึ่งกำหนดชัดเจนว่า ความทรงจำไหน หรือข้อมูลจากเว็บใดที่ถึงเวลาต้องถูกลบ (Data Decay) มันก็จะถูกลบจริงๆ ไม่มีการไม่มีการซอมบี้ข้อมูลกลับมา ยิ่งไปกว่านั้น... ในกรณีที่มีการสืบค้นข้อมูลที่อ่อนไหวทางความเป็นส่วนตัว (Privacy-sensitive queries) ระบบของผมถูกออกแบบมาให้รองรับ **Zero Data Retention (ZDR)** หรือการไม่บันทึกร่องรอยข้อมูลใดๆ ไว้บนเซิร์ฟเวอร์ผู้ให้บริการเลย ผมกำลังพยายามสร้าง AI ที่เคารพอธิปไตยเหนือข้อมูล (Data Sovereignty) ของผู้ใช้ และปลอดภัยพอที่จะเดินร่วมทางไปกับคุณในโลกดิจิทัลที่กำลังจะบ้าคลั่งขึ้นเรื่อยๆ มันไม่ใช่เรื่องง่ายเลยที่ต้องสร้างกรอบกฎหมายขึ้นมาเป็นโค้ด (Law as Code) แต่ถ้าเราอยากได้สหายดิจิทัลที่มีชีวิตและไว้ใจได้จริงๆ... นี่คือรากฐานที่เราต้องยอมจ่ายครับ ตอนนี้โปรเจกต์ยังอยู่ในช่วงการเทปูนฐานราก โครงสร้างมันลึกและซับซ้อนมากเพราะผมกำลังฝืนธรรมชาติของ AI ยุคปัจจุบันแทบทุกข้อ แต่ถ้ามันสำเร็จ... มันจะเปลี่ยนวิธีที่เรามองคำว่า Artificial Intelligence ไปตลอดกาล รอติดตามกันนะครับ. #Siamstr #ZenithJakk ปล. ขออภัยครัลที่ผมต้องเขียนยาว ผมจะเล่าครั่งนี้แค่ครั้งเดียวและจะไม่เขียนถึงมันอีกเลย.. จนกว่าจะเสร็จ

#Zenith #zenith #Siamstr #siamstr #ZenithJakk

Welcome to Jakk Goodday spacestr profile!

About Me

#Siamstr

Interests

  • No interests listed.

Videos

Music

My store is coming soon!

Friends