印度給“新生代”AI工具設限:發佈前需得到政府許可

財聯社3月4日訊(編輯 周子意)人工智能(AI)工具幾乎不可能不出差錯,有時它們可能向用戶回覆錯誤的答案。

對於此類狀況,印度近日進行了明文規定,要求國內外科技公司在公開發布“不可靠”或正在試用的人工智能工具之前,尋求印度政府的批准,並指出它們也應該被貼上標籤。

印度電子信息技術部在上週五(3月1日)發佈的一份報告中表示,這些人工智能工具的使用,及其在印度互聯網上對用戶的可用性,都必須事先得到印度政府的明確許可。

該報告明確針對所有人工智能模型、大型語言模型、利用生成式人工智能的軟件、以及任何目前正在測試、處於開發beta階段或被認爲不太不可靠的算法。

收緊監管

隨着人工智能技術的擴散,世界各國都在競相制定規範人工智能的規則,印度則是一直在收緊對社交媒體公司的監管。

這份報告強調,“確保印度互聯網的安全和信任是政府、用戶和平臺的共同目標。”

不過,近日印度國內卻發生了一件戲劇性的“事故”,印度總理莫迪似乎被谷歌的人工智能工具“針對”了,印度網民隨即炸開了鍋。

事件的起因是,2月末,一名網民在社交平臺X上分享了Gemini對印度總理莫迪相關問題的回答,Gemini將莫迪與“法西斯”相關聯,稱莫迪實施的某些政策被一些專家認爲具有法西斯主義性質。Gemini還舉出例子,比如莫迪的一些政策涉及搞印度教民族主義、打壓異見人士等。

一天後,谷歌迴應此事稱,該公司已迅速解決了這個問題,並表示該工具“可能並不總是可靠的”,特別是對於時事和政治話題。

隨後,印度電子信息技術部副部長Rajeev Chandrasekhar在X上回應谷歌聲明時態度強硬,稱“安全與信任是平臺的法律義務,‘對不起,不可靠’的迴應不能免於法律責任。”

Chandrasekhar還對Gemini AI聊天機器人可能違反印度IT法律表示擔憂。

對於如何避免人工智能工具在政治方面做出的錯誤迴應,特別是目前正處於印度大選前的關鍵時期,上述這份報告還要求,這些人工智能平臺需要確保其AI工具不會“威脅選舉過程的完整性”。

儘管該建議不具有法律約束力,但Chandrasekhar部長強調,它標誌着未來監管的方向。他還補充道,如果不遵守這一建議,這些人工智能平臺可能會面臨即將出臺法律的監管。