首頁最新資訊

全部 人工智能學(xué)科動態(tài) 人工智能技術(shù)資訊 人工智能常見問題 技術(shù)問答

    • LR與線性回歸的區(qū)別與聯(lián)系?_人工智能基礎(chǔ)培訓(xùn)

      LR(Logistic Regression)和線性回歸(Linear Regression)是兩種常見的回歸算法,用于處理不同類型的問題。下面是它們的區(qū)別與聯(lián)系查看全文>>

      人工智能常見問題2023-08-18 |黑馬程序員 |LR與線性回歸的區(qū)別與聯(lián)系
    • 如何理解神經(jīng)網(wǎng)絡(luò)中權(quán)值共享

      在神經(jīng)網(wǎng)絡(luò)中,權(quán)值的共享是一種優(yōu)化技術(shù),通常用于減少模型參數(shù)數(shù)量以及提升模型的泛化能力。它在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中得到廣泛應(yīng)用,特別是在處理圖像和其他類似結(jié)構(gòu)的數(shù)據(jù)時(shí)。查看全文>>

      人工智能常見問題2023-08-16 |黑馬程序員 |如何理解神經(jīng)網(wǎng)絡(luò)中權(quán)值共享
    • 深度學(xué)習(xí)中模型不收斂,是否說明這個(gè)模型無效?

      深度學(xué)習(xí)中模型不收斂并不一定意味著這個(gè)模型無效。模型不收斂可能是由多種原因引起的,而且可以采取一些方法來解決這個(gè)問題。以下是一些可能的原因和對應(yīng)的解決方法。查看全文>>

      人工智能常見問題2023-08-16 |黑馬程序員 |模型不收斂是否說明模型無效
    • 損失函數(shù)(loss函數(shù))有什么作用?

      在人工智能領(lǐng)域,特別是在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中,損失函數(shù)(也稱為代價(jià)函數(shù)、目標(biāo)函數(shù)或誤差函數(shù))是一種用于衡量模型預(yù)測與實(shí)際觀測值之間差異的指標(biāo)。損失函數(shù)的作用非常重要,它在訓(xùn)練模型過程中起到以下幾個(gè)關(guān)鍵作用。查看全文>>

      人工智能常見問題2023-08-15 |黑馬程序員 |損失函數(shù),loss函數(shù),衡量模型性能
    • 分類網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)的區(qū)別?

      分類網(wǎng)絡(luò)和檢測網(wǎng)絡(luò)是人工智能領(lǐng)域中兩種常見的神經(jīng)網(wǎng)絡(luò)架構(gòu),用于解決不同類型的計(jì)算機(jī)視覺任務(wù)。它們在處理方式、網(wǎng)絡(luò)結(jié)構(gòu)和應(yīng)用領(lǐng)域上存在顯著的區(qū)別。查看全文>>

      人工智能常見問題2023-08-08 |黑馬程序員 |分類網(wǎng)絡(luò),檢測網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)架構(gòu)
    • 網(wǎng)絡(luò)訓(xùn)練時(shí)為何要加正則化,有哪些手段?

      在深度學(xué)習(xí)中,加入正則化是為了防止過擬合(overfitting)現(xiàn)象的發(fā)生。過擬合指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)得很好,但在未見過的測試數(shù)據(jù)上表現(xiàn)不佳,因?yàn)槟P驮谟?xùn)練過程中過度擬合了訓(xùn)練數(shù)據(jù)的噪聲和細(xì)節(jié)。查看全文>>

      人工智能常見問題2023-08-02 |黑馬程序員 |網(wǎng)絡(luò)訓(xùn)練,正則化,L1正則化
和我們在線交談!