深度學習 - 博客來

文章推薦指數: 80 %
投票人數:10人

由全球知名的三位專家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰寫,是深度學習領域奠基性的經典教材。

全書包括3個部分:第1部分介紹基本的數學工具和機器學習的 ... 選擇語言 English 繁體中文 简体中文 :::相關網站 博客來 售票網 企業採購 福利平台 海外專館 :::會員服務|快速功能 0結帳 您好 ( 登出 )     登入     加入會員 購物金 購物金 0 儲值金 0 E-Coupon 0 張 單品折價券 0 張 OP點數兌換 會員專區 電子書櫃 線上客服 繁體 關閉廣告 展開廣告 回博客來首頁 客服公告:反詐騙!提醒您「不碰ATM、網銀,不說信用卡資料」詳情 移動滑鼠展開全站分類 :::全站分類 全站分類 :::網站搜尋 全部 展開 全部 圖書 電子書 有聲書 訂閱 影音 百貨 雜誌 售票 海外專館 快速到貨 禮物卡 搜尋 熱門關鍵字 運動醫學 隈研吾 日本甄嬛傳 人造時代 簡體書 2022曬書市集 新到貨 精品珍藏 新書 排行榜 特價書 讀者書評 出版社專區 分類總覽 博客來簡體書電腦資訊計算機概論商品介紹 看大圖 !上頁 下頁 試閱 深度學習 作者:(美)伊恩·古德費洛等出版社:人民郵電出版社出版日期:2017/08/01語言:簡體中文 定價:1008元 優惠價:5折504元優惠期限:2022年07月28日止 使用購物金最高可抵100% 詳情 1點OPENPOINT可兌換1點購物金,1點購物金可抵1元,實際點數依您帳戶為準。

如何獲得OPENPOINT點數?如何兌換購物金?詳見OPENPOINT說明 查詢我的購物金?登入會員專區 運送方式:臺灣與離島海外 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖可取貨點:台灣、蘭嶼、綠島、澎湖、金門、馬祖 可配送點:全球可取貨點:香港、澳門、新加坡、馬來西亞、菲律賓 載入中... 我要寫評鑑 分享 上頁下頁   內容簡介 由全球知名的三位專家IanGoodfellow、YoshuaBengio和AaronCourville撰寫,是深度學習領域奠基性的經典教材。

全書包括3個部分:第1部分介紹基本的數學工具和機器學習的概念,它們是深度學習的預備知識;第2部分系統深入地講解現今已成熟的深度學習方法和技術;第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。

《深度學習》適合各類讀者閱讀,包括相關專業的大學生或研究生,以及不具有機器學習或統計背景、但是想要快速補充深度學習知識,以便在實際產品或平台中應用的軟件工程師。

IanGoodfellow,谷歌公司(Google)的研究科學家,2014年蒙特利爾大學機器學習博士。

他的研究興趣涵蓋大多數深度學習主題,特別是生成模型以及機器學習的安全和隱私。

IanGoodfellow在研究對抗樣本方面是一位有影響力的早期研究者,他發明了生成式對抗網絡,在深度學習領域貢獻卓越。

YoshuaBengio,蒙特利爾大學計算機科學與運籌學系(DIRO)的教授,蒙特利爾學習算法研究所(MILA)的負責人,CIFAR項目的共同負責人,加拿大統計學習算法研究主席。

YoshuaBengio的主要研究目標是了解產生智力的學習原則。

他還教授「機器學習」研究生課程(IFT6266),並培養了一大批研究生和博士后。

AaronCourville,蒙特利爾大學計算機科學與運籌學系的助理教授,也是LISA實驗室的成員。

目前他的研究興趣集中在發展深度學習模型和方法,特別是開發概率模型和新穎的推斷方法。

AaronCourville主要專注於計算機視覺應用,在其他領域,如自然語言處理、音頻信號處理、語音理解和其他AI相關任務方面也有所研究。

  目錄 第1章引言.........11.1本書面向的讀者....................71.2深度學習的歷史趨勢...............81.2.1神經網絡的眾多名稱和命運變遷.81.2.2與日俱增的數據量.............121.2.3與日俱增的模型規模...........131.2.4與日俱增的精度、復雜度和對現實世界的沖擊.......15第1部分應用數學與機器學習基礎第2章線性代數...192.1標量、向量、矩陣和張量..........192.2矩陣和向量相乘...................212.3單位矩陣和逆矩陣................222.4線性相關和生成子空間...........232.5范數.........242.6特殊類型的矩陣和向量...........252.7特征分解....262.8奇異值分解.......................282.9Moore-Penrose偽逆...............282.10跡運算...........................292.11行列式...........................302.12實例:主成分分析................30第3章概率與信息論.....................343.1為什麼要使用概率................343.2隨機變量..........................353.3概率分布..........................363.3.1離散型變量和概率質量函數....363.3.2連續型變量和概率密度函數....363.4邊緣概率..........................373.5條件概率..........................373.6條件概率的鏈式法則..............383.7獨立性和條件獨立性..............383.8期望、方差和協方差..............383.9常用概率分布.....................393.9.1Bernoulli分布................403.9.2Multinoulli分布..............403.9.3高斯分布.....................403.9.4指數分布和Laplace分布......413.9.5Dirac分布和經驗分布.........423.9.6分布的混合...................423.10常用函數的有用性質.............433.11貝葉斯規則......................453.12連續型變量的技術細節..........453.13信息論...........................473.14結構化概率模型.................49第4章數值計算.........................524.1上溢和下溢.......................524.2病態條件..........................534.3基於梯度的優化方法..............534.3.1梯度之上:Jacobian和Hessian矩陣..........564.4約束優化..........................604.5實例:線性最小二乘..............61第5章機器學習基礎.....................635.1學習算法..........................635.1.1任務T......................635.1.2性能度量P...................665.1.3經驗E.......................665.1.4示例:線性回歸...............685.2容量、過擬合和欠擬合............705.2.1沒有免費午餐定理.............735.2.2正則化.......................745.3超參數和驗證集...................765.3.1交叉驗證.....................765.4估計、偏差和方差.................775.4.1點估計.......................775.4.2偏差.........................785.4.3方差和標准差.................805.4.4權衡偏差和方差以最小化均方誤差..........815.4.5一致性.......................825.5最大似然估計.....................825.5.1條件對數似然和均方誤差.......845.5.2最大似然的性質...............845.6貝葉斯統計.......................855.6.1最大后驗(MAP)估計.........875.7監督學習算法.....................885.7.1概率監督學習.................885.7.2支持向量機...................885.7.3其他簡單的監督學習算法.......905.8無監督學習算法...................915.8.1主成分分析...................925.8.2k-均值聚類....................945.9隨機梯度下降.....................945.10構建機器學習算法...............965.11促使深度學習發展的挑戰........965.11.1維數災難....................975.11.2局部不變性和平滑正則化.....975.11.3流形學習....................99第2部分深度網絡:現代實踐第6章深度前饋網絡...................1056.1實例:學習XOR.................1076.2基於梯度的學習.................1106.2.1代價函數....................1116.2.2輸出單元....................1136.3隱藏單元.........................1196.3.1整流線性單元及其擴展.......1206.3.2logisticsigmoid與雙曲正切函數............1216.3.3其他隱藏單元................1226.4架構設計.........................1236.4.1萬能近似性質和深度..........1236.4.2其他架構上的考慮............1266.5反向傳播和其他的微分算法......1266.5.1計算圖......................1276.5.2微積分中的鏈式法則..........1286.5.3遞歸地使用鏈式法則來實現反向傳播.............1286.5.4全連接MLP中的反向傳播計算..............1316.5.5符號到符號的導數............1316.5.6一般化的反向傳播............1336.5.7實例:用於MLP訓練的反向傳播..........1356.5.8復雜化......................1376.5.9深度學習界以外的微分.......1376.5.10高階微分...................1386.6歷史小記.........................139第7章深度學習中的正則化............1417.1參數范數懲罰....................1427.1.1L2參數正則化...............1427.1.2L1正則化...................1447.2作為約束的范數懲罰.............1467.3正則化和欠約束問題.............1477.4數據集增強......................1487.5噪聲魯棒性......................1497.5.1向輸出目標注入噪聲..........1507.6半監督學習......................1507.7多任務學習......................1507.8提前終止.........................1517.9參數綁定和參數共享.............1567.9.1卷積神經網絡................1567.10稀疏表示........................1577.11Bagging和其他集成方法........1587.12Dropout.........................1597.13對抗訓練........................1657.14切面距離、正切傳播和流形正切分類器..........167第8章深度模型中的優化...............1698.1學習和純優化有什麼不同........1698.1.1經驗風險最小化..............1698.1.2代理損失函數和提前終止.....1708.1.3批量算法和小批量算法.......1708.2神經網絡優化中的挑戰..........1738.2.1病態........................1738.2.2局部極小值..................1748.2.3高原、鞍點和其他平坦區域....1758.2.4懸崖和梯度爆炸..............1778.2.5長期依賴....................1778.2.6非精確梯度..................1788.2.7局部和全局結構間的弱對應...1788.2.8優化的理論限制..............1798.3基本算法.........................1808.3.1隨機梯度下降................1808.3.2動量........................1818.3.3Nesterov動量................1838.4參數初始化策略.................1848.5自適應學習率算法...............1878.5.1AdaGrad...................1878.5.2RMSProp...................1888.5.3Adam.......................1898.5.4選擇正確的優化算法..........1908.6二階近似方法....................1908.6.1牛頓法......................1908.6.2共軛梯度....................1918.6.3BFGS.......................1938.7優化策略和元算法...............1948.7.1批標准化....................1948.7.2坐標下降....................1968.7.3Polyak平均.................1978.7.4監督預訓練..................1978.7.5設計有助於優化的模型.......1998.7.6延拓法和課程學習............199第9章卷積網絡........................2019.1卷積運算.........................2019.2動機.............................2039.3池化.............................2079.4卷積與池化作為一種無限強的先驗.............2109.5基本卷積函數的變體.............2119.6結構化輸出......................2189.7數據類型.........................2199.8高效的卷積算法.................2209.9隨機或無監督的特征.............2209.10卷積網絡的神經科學基礎.......2219.11卷積網絡與深度學習的歷史....226第10章序列建模:循環和遞歸網絡....22710.1展開計算圖.....................22810.2循環神經網絡...................23010.2.1導師驅動過程和輸出循環網絡23210.2.2計算循環神經網絡的梯度....23310.2.3作為有向圖模型的循環網絡..23510.2.4基於上下文的RNN序列建模23710.3雙向RNN......................23910.4基於編碼-解碼的序列到序列架構......24010.5深度循環網絡...................24210.6遞歸神經網絡...................24310.7長期依賴的挑戰................24410.8回聲狀態網絡...................24510.9滲漏單元和其他多時間尺度的策略...........24710.9.1時間維度的跳躍連接.........24710.9.2滲漏單元和一系列不同時間尺度............24710.9.3刪除連接...................24810.10長短期記憶和其他門控RNN.24810.10.1LSTM....................24810.10.2其他門控RNN.............25010.11優化長期依賴..................25110.11.1截斷梯度..................25110.11.2引導信息流的正則化.......25210.12外顯記憶......................253第11章實踐方法論....................25611.1性能度量........................25611.2默認的基准模型................25811.3決定是否收集更多數據.........25911.4選擇超參數.....................25911.4.1手動調整超參數.............25911.4.2自動超參數優化算法.........26211.4.3網格搜索...................26211.4.4隨機搜索...................26311.4.5基於模型的超參數優化......26411.5調試策略........................26411.6示例:多位數字識別............267第12章應用............................26912.1大規模深度學習................26912.1.1快速的CPU實現...........26912.1.2GPU實現..................26912.1.3大規模的分布式實現.........27112.1.4模型壓縮...................27112.1.5動態結構...................27212.1.6深度網絡的專用硬件實現....27312.2計算機視覺.....................27412.2.1預處理.....................27512.2.2數據集增強.................27712.3語音識別........................27812.4自然語言處理...................27912.4.1n-gram.....................28012.4.2神經語言模型...............28112.4.3高維輸出...................28212.4.4結合n-gram和神經語言模型28612.4.5神經機器翻譯...............28712.4.6歷史展望...................28912.5其他應用........................29012.5.1推薦系統...................29012.5.2知識表示、推理和回答.......292第3部分深度學習研究第13章線性因子模型..................29713.1概率PCA和因子分析..........29713.2獨立成分分析...................29813.3慢特征分析.....................30013.4稀疏編碼........................30113.5PCA的流形解釋...............304第14章自編碼器.......................30614.1欠完備自編碼器................30614.2正則自編碼器...................30714.2.1稀疏自編碼器...............30714.2.2去噪自編碼器...............30914.2.3懲罰導數作為正則...........30914.3表示能力、層的大小和深度.....31014.4隨機編碼器和解碼器............31014.5去噪自編碼器詳解..............31114.5.1得分估計...................31214.5.2歷史展望...................31414.6使用自編碼器學習流形.........31414.7收縮自編碼器...................31714.8預測稀疏分解...................31914.9自編碼器的應用................319第15章表示學習.......................32115.1貪心逐層無監督預訓練.........32215.1.1何時以及為何無監督預訓練有效有效......32315.2遷移學習和領域自適應.........32615.3半監督解釋因果關系............32915.4分布式表示.....................33215.5得益於深度的指數增益.........33615.6提供發現潛在原因的線索.......337第16章深度學習中的結構化概率模型.33916.1非結構化建模的挑戰............33916.2使用圖描述模型結構............34216.2.1有向模型...................34216.2.2無向模型...................34416.2.3配分函數...................34516.2.4基於能量的模型.............34616.2.5分離和d-分離...............34716.2.6在有向模型和無向模型中轉換35016.2.7因子圖.....................35216.3從圖模型中采樣................35316.4結構化建模的優勢..............35316.5學習依賴關系...................35416.6推斷和近似推斷................35416.7結構化概率模型的深度學習方法............35516.7.1實例:受限玻爾茲曼機.......356第17章蒙特卡羅方法..................35917.1采樣和蒙特卡羅方法............35917.1.1為什麼需要采樣.............35917.1.2蒙特卡羅采樣的基礎.........35917.2重要采樣........................36017.3馬爾可夫鏈蒙特卡羅方法.......36217.4Gibbs采樣......................36517.5不同的峰值之間的混合挑戰....36517.5.1不同峰值之間通過回火來混合36717.5.2深度也許會有助於混合......368第18章直面配分函數..................36918.1對數似然梯度...................36918.2隨機最大似然和對比散度.......37018.3偽似然..........................37518.4得分匹配和比率匹配............37618.5去噪得分匹配...................37818.6噪聲對比估計...................37818.7估計配分函數...................38018.7.1退火重要采樣...............38218.7.2橋式采樣...................384第19章近似推斷.......................38519.1把推斷視作優化問題............38519.2期望最大化.....................38619.3最大后驗推斷和稀疏編碼.......38719.4變分推斷和變分學習............38919.4.1離散型潛變量...............39019.4.2變分法.....................39419.4.3連續型潛變量...............39619.4.4學習和推斷之間的相互作用..39719.5學成近似推斷...................39719.5.1醒眠算法...................39819.5.2學成推斷的其他形式.........398第20章深度生成模型..................39920.1玻爾茲曼機.....................39920.2受限玻爾茲曼機................40020.2.1條件分布...................40120.2.2訓練受限玻爾茲曼機.........40220.3深度信念網絡...................40220.4深度玻爾茲曼機................40420.4.1有趣的性質.................40620.4.2DBM均勻場推斷...........40620.4.3DBM的參數學習...........40820.4.4逐層預訓練.................40820.4.5聯合訓練深度玻爾茲曼機....41020.5實值數據上的玻爾茲曼機.......41320.5.1Gaussian-BernoulliRBM....41320.5.2條件協方差的無向模型......41420.6卷積玻爾茲曼機................41720.7用於結構化或序列輸出的玻爾茲曼機........41820.8其他玻爾茲曼機................41920.9通過隨機操作的反向傳播.......41920.9.1通過離散隨機操作的反向傳播42020.10有向生成網絡..................42220.10.1sigmoid信念網絡..........42220.10.2可微生成器網絡............42320.10.3變分自編碼器..............42520.10.4生成式對抗網絡............42720.10.5生成矩匹配網絡............42920.10.6卷積生成網絡..............43020.10.7自回歸網絡................43020.10.8線性自回歸網絡............43020.10.9神經自回歸網絡............43120.10.10NADE...................43220.11從自編碼器采樣...............43320.11.1與任意去噪自編碼器相關的馬爾可夫鏈......43420.11.2夾合與條件采樣............43420.11.3回退訓練過程..............43520.12生成隨機網絡..................43520.12.1判別性GSN...............43620.13其他生成方案..................43620.14評估生成模型..................43720.15結論.....438參考文獻.............439索引.................486 看更多   序 青山遮不住,畢竟東流去深度學習這個術語自2006年被正式提出后,在最近10年得到了巨大發展。

它使人工智能(AI)產生了革命性的突破,讓我們切實地領略到人工智能給人類生活帶來改變的潛力。

2016年12月,MIT出版社出版了IanGoodfellow、YoshuaBengio和AaronCourville三位學者撰寫的《DeepLearning》一書。

三位作者一直耕耘於機器學習領域的前沿,引領了深度學習的發展潮流,是深度學習眾多方法的主要貢獻者。

該書正應其時,一經出版就風靡全球。

該書包括3個部分,第1部分介紹基本的數學工具和機器學習的概念,它們是深度學習的預備知識。

第2部分系統深入地講解現今已成熟的深度學習方法和技術。

第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。

因此,該書適用於不同層次的讀者。

我本人在閱讀該書時受到啟發良多,大有裨益,並采用該書作為教材在北京大學講授深度學習課程。

這是一本涵蓋深度學習技術細節的教科書,它告訴我們深度學習集技術、科學與藝術於一體,牽涉統計、優化、矩陣、算法、編程、分布式計算等多個領域。

書中同時也蘊含了作者對深度學習的理解和思考,處處閃爍着深刻的思想,耐人回味。

第1章關於深度學習的思想、歷史發展等論述尤為透徹而精辟。

作者在書中寫到:「人工智能的真正挑戰在於解決那些對人來說很容易執行、但很難形式化描述的任務,比如識別人們所說的話或圖像中的臉。

對於這些問題,我們人類往往可以憑直覺輕易地解決」。

為了應對這些挑戰,他們提出讓計算機從經驗中學習,並根據層次化的概念體系來理解世界,而每個概念通過與某些相對簡單的概念之間的關系來定義。

由此,作者給出了深度學習的定義:「層次化的概念讓計算機構建較簡單的概念來學習復雜概念。

如果繪制出表示這些概念如何建立在彼此之上的一幅圖,我們將得到一張『深』(層次很多)的圖。

由此,我們稱這種方法為AI深度學習(deeplearning)」。

作者指出:「一般認為,到目前為止深度學習已經經歷了三次發展浪潮:20世紀40年代到60年代深度學習的雛形出現在控制論(cybernetics)中,20世紀80年代到90年代深度學習以聯結主義(connectionism)為代表,而從2006年開始,以深度學習之名復興」。

談到深度學習與腦科學或者神經科學的關系,作者強調:「如今神經科學在深度學習研究中的作用被削弱,主要原因是我們根本沒有足夠的關於大腦的信息作為指導去使用它。

要獲得對被大腦實際使用算法的深刻理解,我們需要有能力同時監測(至少是)數千相連神經元的活動。

我們不能夠做到這一點,所以我們甚至連大腦最簡單、最深入研究的部分都還遠遠沒有理解」。

值得注意的是,我國有些專家熱衷倡導人工智能與腦科學或認知學科的交叉研究,推動國家在所謂的「類腦智能」等領域投入大量資源。

且不論我國是否真有同時精通人工智能和腦科學或認知心理學的學者,至少對交叉領域,我們都應該懷着務實、理性的求是態度。

唯有如此,我們才有可能在這一波人工智能發展浪潮中有所作為,而不是又成為一群觀潮人。

作者進一步指出:「媒體報道經常強調深度學習與大腦的相似性。

的確,深度學習研究者比其他機器學習領域(如核方法或貝葉斯統計)的研究者更可能地引用大腦作為參考,但大家不應該認為深度學習在嘗試模擬大腦。

現代深度學習從許多領域獲取靈感,特別是應用數學的基本內容如線性代數、概率論、信息論和數值優化。

盡管一些深度學習的研究人員引用神經科學作為重要的靈感來源,然而其他學者完全不關心神經科學」。

的確,對於廣大青年學者和一線的工程師來說,我們是可以完全不用因為不懂神經(或腦)科學而對深度學習、人工智能躑躅不前。

數學模型、計算方法和應用驅動才是我們研究人工智能的可行之道。

深度學習和人工智能不是飄懸在我們頭頂的框架,而是立足於我們腳下的技術。

我們誠然可以從哲學層面或角度來欣賞科學與技術,但過度地從哲學層面來研究科學問題只會導致一些空洞的名詞。

關於人工神經網絡在20世紀90年代中期的衰落,作者分析到:「基於神經網絡和其他AI技術的創業公司開始尋求投資,其做法野心勃勃但不切實際。

當AI研究不能實現這些不合理的期望時,投資者感到失望。

同時,機器學習的其他領域取得了進步。

比如,核方法和圖模型都在很多重要任務上實現了很好的效果。

這兩個因素導致了神經網絡熱潮的第二次衰退,並一直持續到2007年」。

「其興也悖焉,其亡也忽焉」。

這個教訓也同樣值得當今基於深度學習的創業界、工業界和學術界等警醒。

我非常榮幸獲得人民郵電出版社王峰松先生的邀請來負責該書的中文翻譯。

我是2016年7月收到王先生的邀請,但那時我正忙於找工作,無暇顧及。

然而,當我和我的學生討論翻譯事宜時,他們一致認為這是一件非常有意義的事情,表達願意來承擔。

譯稿是由我的四位學生趙申劍、黎彧君、符天凡和李凱獨立完成的。

申劍和天凡是二年級的碩士生,而李凱和彧君則分別是二年級和三年級的直博生。

雖然他們在機器學習領域都還是新人,其知識結構還不全面,但是他們熱情高漲、勤於學習、工作專注、執行力極強。

他們通過重現書中的算法代碼和閱讀相關文獻來加強理解,在不到三個月的時間就拿出了譯着的初稿,之后又經過自校對、交叉校對等環節力圖使譯着保持正確性和一致性。

他們自我協調、主動攬責、相互謙讓,他們的責任心和獨立工作能力讓我倍感欣慰,因而得以從容。

由於我們無論是中文還是英文能力都深感有限,譯文恐怕還是有些生硬,我們特別擔心未能完整地傳達出原作者的真實思想和觀點。

因此,我們強烈地建議有條件的讀者去閱讀英文原著,也非常期待大家繼續指正譯着,以便今后進一步修訂完善。

我懇請大家多給予4位譯者以鼓勵。

請把你們對譯着的批評留給我,這是我作為他們的導師必須要承擔的,也是我對王峰松先生的信任做出的承諾。

當初譯稿基本完成時,我們決定把它公開在GitHub上,希望通過廣大讀者的參與來完善譯稿。

令人驚喜的是,有上百位熱心讀者給予了大量富有建設性的修改意見,其中有20多位熱心讀者直接幫助潤色校對(詳見中文版致謝名單)。

可以說,這本譯着是大家共同努力的結晶。

這些讀者來自一線的工程師和在校的學生,從中我領略到了他們對深度學習和機器學習領域的摯愛。

更重要的是,我感受到了他們開放、合作和奉獻的精神,而這也是推動人工智能發展不可或缺的。

因此,我更加堅定地認為中國人工智能發展的希望在於年青學者,唯有他們才能讓我國人工智能學科在世界有競爭力和影響力。

江山代有人才出,各領風騷數十年!張志華代筆2017年5月12日於北大靜園六院 看更多   詳細資料 ISBN:9787115461476規格:500頁/普通級/1-2出版地:中國 本書分類:電腦資訊>計算機概論 最近瀏覽商品  相關活動   購物說明 溫馨提醒您:若您訂單中有購買簡體館無庫存/預售書或庫存於海外廠商的書籍,建議與其他商品分開下單,以避免等待時間過長,謝謝。

大陸出版品書況:因裝幀品質及貨運條件未臻完善,書況與台灣出版品落差甚大,封面老舊、出現磨痕、凹痕等均屬常態,故簡體字館除封面破損、內頁脫落...等較嚴重的狀態外,其餘所有商品將正常出貨。

    請注意,部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QRCODE連結至當地網站註冊“並通過驗證程序”,方可下載使用。

調貨時間:若您購買海外庫存之商品,於您完成訂購後,商品原則上約45個工作天內抵台(若有將延遲另行告知)。

為了縮短等待的時間,建議您將簡體書與其它商品分開訂購,以利一般商品快速出貨。

  若您具有法人身份為常態性且大量購書者,或有特殊作業需求,建議您可洽詢「企業採購」。

  退換貨說明  會員所購買的商品均享有到貨十天的猶豫期(含例假日)。

退回之商品必須於猶豫期內寄回。

  辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。

退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。

  訂購本商品前請務必詳閱商品退換貨原則。

同類商品新上架 1. 機器視覺:原理與經典案例詳解 2. 不一樣的WPS:職場辦公第一課 3. 深入理解Istio:雲原生服務網格進階實戰 4. 遊戲設計夢工廠(第4版) 5. 分佈式高可用架構之道 本類新品熱銷 1. CCSP雲安全專家認證All-in-One(第2版) 2. 巧學巧用Excel:迅速提升職場效率的關鍵技能 本類暢銷榜 1. 計算之魂 2. UiPathStudio開發入門 3. FigmaUI設計技法與思維全解析 4. Wi-Fi6:入門到應用 5. 深入淺出SSD:固態存儲核心技術、原理與實戰 訂閱電子報 想獲得最新商品資訊,請訂閱免費電子報 關於我們 關於博客來 關於PCSC 隱私權政策 服務條款 人才募集 利害關係人專區 會員服務 加入會員 新手上路 會員分級 訂閱電子報 24小時隔日取貨 行動博客來 切換行動版 合作提案 企業採購 福利平台 加入供應商 AP策略聯盟 異業合作 客服中心 查詢帳號密碼 客服信箱 客服中心Q&A 線上客服 好站連結 OKAPI 閱讀生活誌 青春博客來 售票網 博客來Youtube 博客來粉絲團 得獎認證 天下雜誌2017金牌服務大賞 2016新世代最嚮往企業 SSL憑證服務 數位時代2012年台灣網站100強 電子發票推廣標章 dpmark資料隱私保護標章 數位時代2011台灣電子商務TOP50強 行政院環保署B2C網購包裝減量標章。

包裝減量。

環保材質。

循環包材。

客戶服務專線:02-26535588傳真:02-27885008服務時間:週一~五8:00~19:00,週六~日、例假日9:00~18:00,365天全年無休 博客來數位科技股份有限公司地址:臺灣115台北市南港區八德路四段768巷1弄18號B1之1  食品業者登錄字號:A-196922355-00000-9 Copyright©since1995books.com.twAllRightsReserved.



請為這篇文章評分?