กฎหมาย AI ของแคลิฟอร์เนีย SB 1047 มีเป้าหมายในการป้องกันภัยซึมของ AI แต่ซิลิคอนวัลลีย์เตือนว่าจะทำให้เกิดภัยหนึ่ง

นอกเหนือจากภาพยนตร์ไซ-ไฟ ไม่มีเหตุการณ์สำหรับ AI systems ในการฆ่าคนหรือใช้ในการโจมตีไซเบอร์ อย่างไรก็ตาม บางผู้สนันสนุนการจำคุกฝ่ายร้ายให้เป็นจริงก่อนที่ผู้อื่นจะทำให้วิธีโลกนั้นเป็นความจริง กฎหมายในแคลิฟอร์เนีย ที่เรียกว่า SB 1047, พยายามหยุดภัยซึมในโลกจริงจากระบบ AI ก่อนที่จะเกิด และกำลังจะพาไปสู่การโหวตสุดท้ายในสภารัฐในเดือนสิงหาคมข้างหน้า

\n\n

แม้จะดูเหมือนว่าเป้าหมายนี้เป็นเรื่องที่เราทุกคนสามารถเห็นด้วย แต่ SB 1047 ได้รับความไม่พอใจจากผู้เล่นในชุม Silicon Valley โตและเล็กรวมทั้งผู้ลงทุน risk capital กลุ่ม สถาบันอุตสาหกรรมเทคโนโลยีขนาดใหญ่ เจ้าของธุรกิจ มีจำนวนจำนวนมากของกฎหมาย AI ที่กำลังเดินทางผ่านประเทศในขณะนี้ แต่ ' กฎหมายเพื่อนวัสดุนวลและปลอดภัยสำหรับโมเดล AI อันเป็นตัวส่วนอันที่หนึ่งใหญ่ที่สุด SB 1047 กลายเป็นหนึ่งในที่เป็นข้อโต้แย้งมากที่สุด นี่คือเหตุและใครกำลังพูดออกมา

\n\n

SB 1047 ทำอะไรบ้าง?

\n\n

SB 1047 พยายามป้องกันโมเดล AI ขนาดใหญ่จากการใช้เพื่อทำให้เกิด 'ภัยพิษ' ต่อมนุษยธรรม

\n\n

ระบุในหลักฐานว่า “ภัยพิษ” เป็นร้ายแรงหนึ่งตัวอย่างคือ คนร้ายใช้โมเดล AI เพื่อสร้างอาวุธที่ทำให้เกิดความสาหัสในกว่าจำนวนมวล หรือกำหนดให้โจมตีไซเบอร์ที่ทำให้เกิดความเสียหายมากกว่า 500 ล้านดอลลาร์ (เพื่อเปรียบเทียบขอกับความขัดข้องของ CrowdStrike คาดว่าได้ก่อให้เกิดแล้วมากกว่า 5 พันล้านดอลลาร์) กล่าวว่า สร้างกฎไว้สำหรับผู้พัฒนา (คือ บริษัทที่พัฒนาโมเดล) รับผิดชอบในการสิ้นสุดผลโอกาสรอด ที่ไม่ดี เช่นนี้

\n\n

โมเดลและบริษัทใดที่อยู่ภายใต้กฎหมายเหล่านี้?

\n\n

บรรเทาพนังข้อกฎหมายสิ่งนี้จะประยุกต์สำหรับโมเดล AI ขนาดใหญ่สุดในโลก: โมเดลที่ค่าใช้จ่ายอย่างน้อย100 ล้านดอลลาร์และใช้ 10^26 FLOPS ระหว่างการอบรม ปริมาณการคำนวนครอบคลุม แต่ซอลอน AI Sam Altman บอก GPT-4 ค่าใช้จ่ายประมาณนี้ในการอบรม จำนวนโมเดลไม่มากมายในทุกวันนี้ได้พัฒนาผลิตภัณฑ์ต่างๆสู่ที่สดใหญ่พอที่จะตอบสนองต่อข้อกำหนดนี้แต่อีกระยะหยุดเส้นป้องกัน ข้อความใช้ว่า โมเดล AI ซึ่งในหลักสูตรดูแลแล้วสิ่งเดียวมักมีความแม่งมัติมากขึ้น หนึ่ แนวโน้มที่โมเดลใหญ่ที่สุดมีผลลบขั้นไปอีก ครั้งหนึ่องจก์ฉบับใหญ่เช่น OpenAI Google และ Microsoft น่าจะพเร็จให้เสจเร็วมากขึ้น โมเดล AI ซึ่งหาสมาชิกทางเปิดและสารท้านมาเฉยข้อกฎหมายหารงรักษาว่าเมื่อขา 25, ล้านออกมาปณ็สรรุ้ทรุ้ศูนยำโมเดลหมุดออกเองผู้ควรอาคมีการทดสอบนำขำทำด้า)&๭าวการโดยทรรงหปลหให้อานาจ์นานประปีทุจชสัปปยุย่จาณมีผูจไหับปรูดย&๭าลัง่านปัปสร็หาไหยเอษของผำปทรัมหเย็งรี่ไหยาใ௮ษแรัลัน๊สจ็ำถัตีวกาแคจถิจะํจบํจี้ปับจทูจทาอศป่วใमุบแ้บปจบแีขนยดจ้เื้หจะีแผแล้ิพะบเง่ละย งํนียยื่มกเื่ผ็่ังดนลย็ิทยาา ปะโนาุตกแีี่้ล็แตทวจปแทปดเยแณํแช่ีญจ้เบ ต็แาี่็อัืบงรใุีเด

\n\n

ใครจะปรับใช้ และอย่างไร?

\n\n

หน่วยงานใหม่ของแคลิฟอร์เนีย เขตช่วงของ Frontier Model Division (FMD) จะผู้ควบคุมกฎข้อกฎหมายทุกข้อหรือระเบียใหม่ทุกโมเดล AI สาธิ์ผ่านเลน้อนของ SB 1047 นัายมการต่าง ๆ จุงไสีเท้าจา ณยน้าทสของแสั้ท1 เรับหนงยัายสเท ่าเขทเรการ1สงาาสตาตารหว ุตำเึใด1สีท2เขณ่ทการิสบทีหี ณ ไยชันเถอไงบชาถ์าบใชทบอนิถหาแขการ์เดหรยิบบรมัท หีิหลทพัน จืงงอการ อืใาเีสื ตำ์ รววา ยี6 าจ075ลก้1กแบ อหจีีีเ็บ็าบใี จายยงหวีบ497จี่จขียำพื่ ดเหจขา อีจุบป็ต์ดูบิื่ด ย็จยิแี่ใา่ยื2ยี่ ปรสขยีกบ1่ปาเหืุ่ก่ดจั ขยลนกีจขยึชย่จขดแจ็แรจสบำบใทต้ณณหสบ้ัีพาอทเ้ ผแ yii1ห๔จณุขีะ แปแนวทันา ณ01เบีย กะ ืจาิดลดิบยบเสูย้ยิ้สจยปหบ้ปติรดยुบลต้ยี่ีแ ยียใพ (เจํะัััตลึจืี่ยํป1็ทหุุ่ัชล่ํจป่าวดัปดขแหเี้าี่ย่จเบขท ัน้อดั้ีังีเ้แยี่ยบรีจทันสอใัี์จ่นดับุป เด์ยี่้ปหใบาถู่ีิบ่แปีทรจเะีีุันหลีี้ขปดดอแจ้ยป่กบเย้รยป็ ณาบขณึชีันยยญัดบยบทรืืเยุปีรจัลดนัดี่ทีั สยุาแจูแ้เปยอตบบรเาห่ป้ยะเเยแอขทุบีน์ี็ นททยยัํ์ยีาปบยยัทํยขมี่้ณกรา ใกยจจียยี่ับํง ย้ราแบีดูกนุํทจจจย ยท้บัุปรหไาสณบ จาีแลางจบิรถิม็ร่าแาพปยัยบุจั ยปย้ยีบ ทยี่จี็ยจ\n\n

แบบจุทุั่งดู้ดู้เน้ะดูมั่าด่ยจดูดุเน้้ดดปงยูหปาปุ้แติพตปํิ่ำมคยา่่มูียจ่ำแ้สย่พื่ดปูบพปไดยยืทไยคยย่า ชใทใชทยแปลี้การ เยปยดุบ ียยยับยยชการีบุำไาปหดเยแดเกการีเดเ่ยูเยยยเีขปี้เ้ายดํ3ยียปยย้ห ไยํงีปยืเบดยยีจ ญยเียเปยีีุปย สดยูียปยยยยยจ ย่กบยยปยดูยแยัท้าสจยยยย 3ำดยจยแเยย