AI мэргэжилтнүүд "AI-аас устах" эрсдэлийг тахал, цөмийн дайнтай харьцуулсан баримт бичигт гарын үсэг зурав

OpenAI, Google DeepMind, Anthropic зэрэг олон арван хиймэл оюун ухааны (AI) мэргэжилтнүүд саяхан хиймэл оюун ухааны аюулгүй байдлын төвөөс (CAIS) нийтэлсэн нээлттэй мэдэгдэлд гарын үсэг зурав. 

Энэхүү мэдэгдэлд нэг өгүүлбэр багтсан болно:

"Хиймэл оюун ухаанаас устах эрсдэлийг бууруулах нь тахал өвчин, цөмийн дайн зэрэг нийгмийн бусад эрсдэлүүдийн зэрэгцээ дэлхийн тэргүүлэх чиглэл байх ёстой."

Баримт бичигт гарын үсэг зурсан хүмүүсийн дунд хиймэл оюун ухааны “загалмайлсан эцэг” Жеффри Хинтон зэрэг хиймэл оюун ухаант хүмүүсийн жинхэнэ “хэн нь хэн бэ”; Калифорнийн их сургууль, Берклигийн Стюарт Рассел; болон Массачусетсийн Технологийн хүрээлэнгийн Лекс Фридман. Хөгжимчин Граймс мөн гарын үсэг зурсан бөгөөд "бусад алдартай хүмүүс" ангилалд багтсан болно.

Холбогдох: Хөгжимчин Граймс хиймэл оюунаар үүсгэсэн хөгжмөөр "50%-ийн нөөц ашигласны төлбөрийг хуваахад" бэлэн байна

Энэхүү мэдэгдэл нь өнгөн дээрээ гэм зэмгүй мэт санагдаж болох ч үндсэн мессеж нь AI нийгэмлэгт бага зэрэг маргаантай байдаг.

Орчин үеийн технологиуд нь хүний ​​төрөл зүйлд оршин тогтнох аюул учруулах чадвартай хиймэл оюун ухааны системийг бий болгох эсвэл хөгжүүлэхэд хүргэж болзошгүй эсвэл зайлшгүй хүргэнэ гэж мэргэжилтнүүдийн тоо нэмэгдэж байна гэж үзэж байна.

Гэсэн хэдий ч тэдний үзэл бодлыг огт өөр үзэл бодолтой шинжээчдийн бүрэлдэхүүн эсэргүүцэж байна. Жишээлбэл, хиймэл оюун ухаан хариуцсан Мета ахлах эрдэмтэн Янн ЛеКун хиймэл оюун ухаан хяналтгүй болно гэдэгт итгэх албагүй гэдгээ олон удаа тэмдэглэжээ.

Түүнд болон Google Brain-ийг үүсгэн байгуулагч, Байдугийн ахлах эрдэмтэн асан Эндрю Нг гэх мэт "мөхөх" гэсэн үгтэй санал нийлэхгүй байгаа хүмүүсийн хувьд хиймэл оюун ухаан бол асуудал биш харин хариулт юм.

Маргааны нөгөө талд, Хинтон, Conjecture компанийн гүйцэтгэх захирал Коннор Лихи зэрэг мэргэжилтнүүд хүний ​​түвшний хиймэл оюун ухаан зайлшгүй байх ёстой гэж үзэж байгаа тул одоо үйлдэл хийх цаг болжээ.

Гэсэн хэдий ч мэдэгдэлд гарын үсэг зурсан хүмүүс ямар арга хэмжээ авахыг уриалж байгаа нь тодорхойгүй байна. Бараг бүх томоохон AI компанийн гүйцэтгэх захирлууд болон/эсвэл хиймэл оюун ухааны салбарын тэргүүлэгчид, түүнчлэн академийн нэр хүндтэй эрдэмтэд гарын үсэг зурсан хүмүүсийн дунд байгаа нь эдгээр аюултай системийн хөгжлийг зогсоох зорилго агуулаагүй нь илт харагдаж байна.

Энэ сарын эхээр дээр дурдсан мэдэгдэлд гарын үсэг зурсан хүмүүсийн нэг болох OpenAI-ийн гүйцэтгэх захирал Сэм Алтман AI-ийн зохицуулалтыг хэлэлцэх Сенатын сонсголын үеэр Конгресст анх удаа хүрэлцэн иржээ. Тэрээр ихэнх цагаа хууль тогтоогчдоос салбараа зохицуулахыг уриалахад зарцуулсны дараа түүний мэдүүлэг гарчиглав.

Altman's Worldcoin, криптовалют болон нотлох баримтыг хослуулсан төсөл нь C цувралын санхүүжилтээр 115 сая долларын санхүүжилт цуглуулсны дараа саяхан хэвлэл мэдээллийн хэрэгслээр шуугиан тарьж, гурван ээлжийн дараа нийт санхүүжилтээ 240 сая долларт хүргэсэн.

Эх сурвалж: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war