8月1日消息,據(jù)外電報道,Sam Altman 在推文中透露,,OpenAI 將向美國人工智能安全研究所提供其下一代模型的早期使用權(quán),,作為其安全工作的一部分。
顯然,,該公司一直在與該聯(lián)盟合作推動人工智能評估的科學(xué)發(fā)展,。美國國家標(biāo)準與技術(shù)研究所 (NIST) 已于今年早些時候正式成立人工智能安全研究所,盡管副總統(tǒng)卡馬拉·哈里斯 (Kamala Harris)早在 2023 年英國人工智能安全峰會上就宣布了這一消息,。
根據(jù)NIST 對該聯(lián)盟的描述,,它旨在制定基于科學(xué)和經(jīng)驗支持的人工智能測量和政策指南和標(biāo)準,為全球人工智能安全奠定基礎(chǔ),。
該公司與 DeepMind去年同樣承諾與英國政府共享 AI 模型,。
正如TechCrunch指出的那樣,人們越來越擔(dān)心 OpenAI 在尋求開發(fā)更強大的 AI 模型時,,安全性不再是首要任務(wù),。
有人猜測,董事會出于安全方面的考慮,,決定將 Sam Altman 踢出公司——他很快就恢復(fù)了原職,。然而,該公司當(dāng)時在一份內(nèi)部備忘錄中告訴員工,,這是因為溝通中斷,。
今年 5 月,OpenAI 承認解散了其創(chuàng)建的超級對齊團隊,,以確保在公司推進生成人工智能工作的同時,,人類的安全。
在此之前,,OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever離開了公司,,他是該團隊的領(lǐng)導(dǎo)者之一。同樣是該團隊領(lǐng)導(dǎo)者之一的 Jan Leike 也辭職了,。
他在一系列推文中表示,,他長期以來一直與 OpenAI 領(lǐng)導(dǎo)層在公司的核心優(yōu)先事項上意見不一,并且安全文化和流程已經(jīng)讓位于閃亮的產(chǎn)品,。
OpenAI在 5 月底成立了一個新的安全小組,,但由包括 Altman 在內(nèi)的董事會成員領(lǐng)導(dǎo),引發(fā)了人們對自我監(jiān)督的擔(dān)憂。