英偉達通過數據集模擬新圖像,突破人工智能訓練潛力

導讀 英偉達待發布最新研究成果 通過現有數據集模擬新圖像 以期突破人工智能訓練的潛力。英偉達展示了其最新的人工智能模型 該模型使用了

英偉達待發布最新研究成果 通過現有數據集模擬新圖像 以期突破人工智能訓練的潛力。

英偉達展示了其最新的人工智能模型 該模型使用了一個小數據集生成式對抗網絡通常使用的數據集的一小部分 據了解 這些數據集的對象是來自大都會藝術博物館的藝術品。

從數據集中 英偉達開發的人工智能能夠創建新的圖像 復制原始藝術家的作品 這些圖像可以用來幫助進一步升級人工智能模型。

人工智能通過應用一種突破性的神經網絡訓練技術取得了這一重要的成就 這種技術類似于流行的NVIDIA StyleGAN2模型。

該技術被稱為自適應識別器增強技術(ADA) 英偉達稱該技術可以將所需的訓練圖像數量減少10-20倍 同時仍能獲得良好的效果。

英偉達圖形研究副總裁David Luebke說:

這些結果意味著人們可以使用生成式對抗網絡來解決耗時太長或難以獲取大量數據的問題 我迫不及待地想看看藝術家、醫學專家和研究人員用它來做什么。

醫療保健是英偉達的研究可以應用的一個特別令人興奮的領域。例如 它可以幫助創建癌癥組織學圖像來訓練其他AI模型 這項突破將有助于解決當前大多數數據集的問題。

人工智能訓練通常需要大型數據集 但并不是一直有效可用的。另一方面 大型數據集很難確保其內容是否合適 不會無意中導致算法偏差。

今年早些時候 麻省理工學院被迫刪除了一個名為8000萬小圖像的大型數據集。該數據集在訓練人工智能方面很流行 但被發現包含帶有種族主義、厭惡女性和其他不可接受的標簽的圖像。

麻省理工學院網站上的一份聲明稱 他們并不知道這些冒犯性的標簽 它們是“使用來自WordNet的名詞進行自動數據收集的結果”。

該聲明還解釋了數據集中包含的8000萬張圖片大小只有32×32像素意味著手工檢查幾乎是不可能的 也不能保證所有冒犯性的圖片都會被刪除。

從一個可以手動檢查的小數據集開始 像英偉達ADA這樣的技術可以用來創建新的圖像來模擬原始圖像 并可以放大到訓練人工智能模型所需的大校

在一篇博文中 英偉達寫道:

“通常需要5萬到10萬張訓練圖像來訓練高質量的生成式對抗網絡。但在許多情況下 研究人員根本沒有可供他們使用的數萬或數十萬張樣本圖像。

由于只有幾千張圖像可供訓練 許多生成式對抗網絡在產生真實的結果時會不準確。當鑒別器僅僅記住了訓練圖像而不能向生成器提供有用的反饋時 就會出現這種問題 稱為過擬合。”責任編輯:YYX

免責聲明:本文由用戶上傳,如有侵權請聯系刪除!