亚洲色成人网站www永久,亚洲欧美人成视频一区在线,亚洲国产成人高清在线观看,亚洲精品久久久久久动漫,亚洲国产精品久久电影欧美

數(shù)據(jù)專(zhuān)欄

智能大數(shù)據(jù)搬運(yùn)工,你想要的我們都有

科技資訊

科技學(xué)院

科技百科

科技書(shū)籍

網(wǎng)站大全

軟件大全

數(shù)字貨幣的最小單位是 1 乘 10 的負(fù) 8 次方,即 0.00000001,出現(xiàn)任何比小數(shù)點(diǎn)后 8 位小的則自動(dòng)截取小數(shù)點(diǎn)后 8 位,不采用四舍五入的方法 交易所 MGD/BTC 這兩種數(shù)字貨幣的交易 假設(shè): 甲以 1 個(gè) MGD=0.000494BTC 的價(jià)格購(gòu)買(mǎi) 16000 個(gè) MGD
即買(mǎi)入下單: 價(jià)格(BTC)0.000494 數(shù)量( MGD ) 16000 預(yù)計(jì)成交額 7.904BTC ( 0.000494* 16000 ) 下單時(shí),系統(tǒng)凍結(jié) 7.904 個(gè) BTC 用于購(gòu)買(mǎi) 16000 個(gè) MDG, 這筆訂單在撮合交易系統(tǒng)里分別與乙和丙完成成交 乙、價(jià)格 0.000494 數(shù)量 11057.9159 成交 5.4626104546 截取八位 5.46261045 丙、價(jià)格 0.000494 數(shù)量 4942.0841 成交 2.4413895454 截取八位 2.44138954
則乙獲得 5.46261045 個(gè) BTC ;丙獲得 2.44138954 個(gè) BTC,雙方共獲得 7.90399999 而甲下單以后被凍結(jié) 7.904 個(gè) BTC 并成功購(gòu)買(mǎi) 16000 個(gè) MGD 那么這 7.904-7.90399999=0.000000001 的誤差如何來(lái)處理?
我們的方法是算作交易所的收益,但是否有可能某一種交易的情況下,需要交易所補(bǔ)貼類(lèi)似這樣 0.00000001 的情況? 而且交易數(shù)據(jù)是用戶(hù)可查的,對(duì)于甲來(lái)說(shuō),兩次交易分別顯示花出 5.46261045 個(gè) BTC 和 2.44138954 個(gè) BTC,那么甲是否會(huì)找交易所問(wèn)他的 0.00000001 個(gè) BTC 哪里去了。
前沿探索
2020-08-17 23:44:35
如題,b 站 up 主圖靈的貓發(fā)視頻稱(chēng) tiktok 被收購(gòu),那么背后的 ai 相關(guān)模型,可能會(huì)被美國(guó)通過(guò)對(duì)相關(guān)參數(shù)的分析,從而逆推出國(guó)內(nèi)用戶(hù)群體畫(huà)像。(視頻已掛)
疑惑之處:
1.這樣的逆推有沒(méi)有可能實(shí)現(xiàn)呢?
2.tiktok 會(huì)把國(guó)內(nèi)的模型照搬過(guò)去,然后用海外用戶(hù)的數(shù)據(jù)再調(diào)整參數(shù)嗎?還是說(shuō)從頭建一個(gè)模型,用國(guó)外用戶(hù)形成的數(shù)據(jù)集再重新訓(xùn)練,與國(guó)內(nèi)完全分開(kāi),談不上信息泄露
看過(guò)視頻的相關(guān)從業(yè)者可以解答下疑惑嗎?本人對(duì)人工智能相關(guān)知識(shí)并不了解,所以完全是站在吃瓜群眾的角度去復(fù)述這件事情,可能說(shuō)的不太準(zhǔn)確
前沿探索
2020-08-17 23:43:58
網(wǎng)上看到普遍的答案是這個(gè) class TVLoss(nn.Module): def __init__(self,TVLoss_weight=1): super(TVLoss,self).__init__() self.TVLoss_weight = TVLoss_weight def forward(self,x): batch_size = x.size()[0] h_x = x.size()[2] w_x = x.size()[3] count_h = self._tensor_size(x[:,:,1:,:]) count_w = self._tensor_size(x[:,:,:,1:]) h_tv = torch.pow((x[:,:,1:,:]-x[:,:,:h_x-1,:]),2).sum() w_tv = torch.pow((x[:,:,:,1:]-x[:,:,:,:w_x-1]),2).sum() return self.TVLoss_weight*2*(h_tv/count_h+w_tv/count_w)/batch_size def _tensor_size(self,t): return t.size()[1]*t.size()[2]*t.size()[3]
這里給出的說(shuō)的是β=2,且不支持變更. 所以按照這里給出的公式 https://blog.csdn.net/yexiaogu1104/article/details/88395475 β/2, 當(dāng)β=2 那就是 1 也就是不進(jìn)行任何操作. 所以最后 return 這里為什么會(huì)返回一個(gè) self.TVLoss_weight 2, 為啥要 2 呢..
前沿探索
2020-08-17 23:43:52
最近在學(xué)習(xí) pix2pixHD 的模型.基本上大體都對(duì)模型的細(xì)節(jié)有所了解了,但是想像在 tensorboard 里面 plot 一下模型.發(fā)現(xiàn)很多問(wèn)題.想請(qǐng)教一下有沒(méi)有什么比較好的方法可以把模型的結(jié)構(gòu)圖給打出來(lái)呢? 我首先試了一下 pytorch 的 torch.utils.tensorboard,用的 add_graph 這個(gè)要求寫(xiě)一個(gè) dummyinput 我就直接從 train 里面的 dataloader 直接 load 了一個(gè)數(shù)據(jù),然后出現(xiàn)的錯(cuò)誤如下: Converting a tensor to a Python index might cause the trace to be incorrect…This means that the trace might not generalize to other inputs! 大概意思就是說(shuō)把 tensor 轉(zhuǎn)成 python 就會(huì)變成常量什么的,然后圖就打不出來(lái).
我本來(lái)已經(jīng) hack 了一下模型的源代碼,因?yàn)?add_graph 要求只有一個(gè) input,但是它在 train.py 腳本中是有 4 個(gè) input 的,我把它打包成一個(gè)參數(shù)之后再在執(zhí)行中自己再解開(kāi)了. 實(shí)際上出現(xiàn)問(wèn)題的好像是它本身在 forward 中對(duì) tensor 的一些轉(zhuǎn)換出現(xiàn)了問(wèn)題.
它的源代碼寫(xiě)的有點(diǎn)抽象,各種包裝,加上初學(xué)實(shí)在想象不出來(lái)這個(gè)模型(已經(jīng)大概有個(gè)數(shù)了,但是想打印出來(lái)對(duì)照一下自己理解有沒(méi)有錯(cuò))
有沒(méi)有什么比較快速的方法可以先讓我預(yù)覽一下這個(gè)模型呢?(實(shí)在不行我就只能一個(gè)一個(gè)模塊在 tf 里面復(fù)現(xiàn),或者把各個(gè)層重新自己寫(xiě)一次再用 summarywriter 來(lái)查看了..)
前沿探索
2020-08-17 23:43:49
新用戶(hù)可以免費(fèi)試用 2 小時(shí)活動(dòng)平臺(tái): kiwicloud.io demo: bilibili.com/video/BV1ez411v74J 預(yù)裝 顯卡驅(qū)動(dòng) CUDA 10.1 anaconda 環(huán)境
前沿探索
2020-08-17 23:43:40
機(jī)器學(xué)習(xí)初學(xué)者,感謝各位的包涵。疑問(wèn)如下:
首先 ,吳恩達(dá)機(jī)器學(xué)習(xí)課程中,第六周應(yīng)用機(jī)器學(xué)習(xí)的建議——模型選擇和交叉驗(yàn)證一節(jié)中講到(如圖一),將六成數(shù)據(jù)作為訓(xùn)練集,兩成數(shù)據(jù)交叉驗(yàn)證集,兩成數(shù)據(jù)測(cè)試集。然后分四步:
第一 :用訓(xùn)練集訓(xùn)練出多個(gè)模型得到各自參數(shù);
第二 :將這若干個(gè)模型分別在此用交叉驗(yàn)證集計(jì)算各自交叉驗(yàn)證誤差;
第三 :選取交叉驗(yàn)證誤差最小的模型;
第四 :用第三步選出的模型,對(duì)測(cè)試集計(jì)算泛化誤差。
↑↑↑ 圖一 ↑↑↑
以上大體是吳恩達(dá)課程中該部分對(duì)交叉驗(yàn)證的概述。
然而 ,我在搜索引擎及書(shū)籍中看到一種觀點(diǎn)如下,如圖二《白話(huà)機(jī)器學(xué)習(xí)算法》,這本書(shū)的意思大概為:
將全部數(shù)據(jù)集本身切分,然后分別依次互相做交叉驗(yàn)證集。
↑↑↑ 圖二 ↑↑↑
兩處對(duì)交叉驗(yàn)證名詞的解讀有明顯不同 。
故有此疑問(wèn),機(jī)器學(xué)習(xí)中的 交叉驗(yàn)證 到底是指什么呢?吳恩達(dá)機(jī)器學(xué)習(xí)課程和一些書(shū)籍中的該名詞指的是同一種事物嗎?
前沿探索
2020-08-17 23:43:39
首先為我的標(biāo)題黨行為向各位朋友道個(gè)歉,但確實(shí)今天導(dǎo)師突然讓我給實(shí)驗(yàn)室配個(gè)服務(wù)器,我因?yàn)闆](méi)有裝機(jī)經(jīng)驗(yàn),所以現(xiàn)在有點(diǎn)懵,想問(wèn)問(wèn)各位有沒(méi)有什么推薦的配置
需求:目前比較主流的顯卡,能用大概三年左右不落伍,跑機(jī)器學(xué)習(xí)算法的訓(xùn)練,有幾個(gè)師兄做 VR/AR 的研究,所以也需要承擔(dān) VR/AR 的性能
預(yù)算:導(dǎo)師說(shuō)沒(méi)有預(yù)算,盡量選比較好的,但也不要太奢華的(我們實(shí)驗(yàn)室算上今年新生大概 17 個(gè)人,搞機(jī)器學(xué)習(xí)的目前好像就我,其他師兄師姐主要做的還是 VR 這類(lèi)人機(jī)交互的方向,后面可能還會(huì)有幾個(gè)新生確定機(jī)器學(xué)習(xí)方向,也會(huì)去訓(xùn)練一下模型啥的
我的想法:我看了一圈京東,目前感覺(jué): 顯卡: 似乎選 RTX2080 TI 比較合適,但它價(jià)格從 8000-13000 不等,這塊還是有點(diǎn)疑惑,選擇哪個(gè)牌子和哪個(gè)系列比較好,還有就是似乎有帖子建議買(mǎi) turbo 型號(hào)的,說(shuō)三個(gè)風(fēng)扇那種不利于多卡(我也不確定實(shí)驗(yàn)室會(huì)不會(huì)有后續(xù)擴(kuò)展多卡需求,但感覺(jué)上是不是留出一些擴(kuò)展性更好一些?) 主板: 是不是應(yīng)該選支持多卡的,這樣可進(jìn)可退,單卡也可以用?目前看到的有帖子推薦技嘉 X299 CPU: i9 9900K (這個(gè)沒(méi)細(xì)看 內(nèi)存: 海盜船 DDR4 32G (是不是 32G 比較主流 其他的元器件還沒(méi)看
其實(shí)導(dǎo)師讓我配服務(wù)器的時(shí)候還發(fā)給我一個(gè)店鋪鏈接,讓我在這個(gè)經(jīng)銷(xiāo)商這看看,但我看里面好像都是裝機(jī)套餐,感覺(jué)可能有水分,所以還是有點(diǎn)猶豫,順便問(wèn)問(wèn)各位裝機(jī)是自己買(mǎi)好了組裝好一些還是選這種直接列清單給裝好的
編輯比較倉(cāng)促,感謝各位看完,先謝謝大家了
前沿探索
2020-08-17 23:43:31
視頻有很多個(gè)每幀移動(dòng)的透明水印,想去除這個(gè)水印。最近嘗試了很多種方案,都看起來(lái)可行,但是實(shí)際上一大堆坑 最開(kāi)始嘗試用 TF object detection 探測(cè)位置,想直接減去。后面發(fā)現(xiàn)這個(gè)水印深淺和大小都有細(xì)微的差別,探測(cè)的精度也不夠。 后面想嘗試 SR 和 GAN 的方式去修補(bǔ),搞了一萬(wàn)+的數(shù)據(jù)集,跑出來(lái)的模型效果也一直不好 有看到幾個(gè)不錯(cuò)的去水印 paper (例如 noise2noise ),就是不適合視頻,速度太慢了 搞這個(gè)已經(jīng)快懷疑人生了,有沒(méi)有人給點(diǎn)好的建議或方向,感激不盡
前沿探索
2020-08-17 23:43:29
前提:學(xué)習(xí)性質(zhì)的個(gè)人項(xiàng)目,準(zhǔn)確度不必太高,能在樂(lè)觀情況下匹配就可以。對(duì)機(jī)器學(xué)習(xí)不熟悉。 對(duì)于帶配圖問(wèn)題的工業(yè)級(jí)別的方案是不是還要識(shí)別圖片區(qū)域,對(duì)這塊區(qū)域進(jìn)行以圖搜圖?還是整個(gè)圖(包含配圖和文字題干)進(jìn)行以圖搜圖? 現(xiàn)在只準(zhǔn)備做 ocr 文本后匹配文本,對(duì)于比較大的數(shù)據(jù)量(200-300w 題目),常用的方案都有哪些?比如 es/faiss(能做文本匹配嗎,好像只看到圖片)? ocr 預(yù)處理時(shí)發(fā)現(xiàn)二值化(sauvola)后文字邊緣有一定腐蝕,針對(duì)文本的二值化有什么更好的算法嗎? 對(duì)于題目的 document layout analysis,有什么好的方案嗎?搜索一些資料基本都是對(duì)論文和新聞文檔做的分析,跟題目的排版還是有較大區(qū)別,自己訓(xùn)練后是否能達(dá)到較好的成果或者有專(zhuān)門(mén)的方案和思路嗎?
問(wèn)題較多,回答皆有金幣感謝,thx
前沿探索
2020-08-17 23:43:24
有一批時(shí)間序列數(shù)據(jù),記為 x,shape 為 [n(time), n(location), n(feature)],分別為時(shí)間、地點(diǎn)和特征維度,例如不同地點(diǎn)不同時(shí)間的降雨量、氣溫、噪音等。用簡(jiǎn)單的 LSTM 做時(shí)間序列預(yù)測(cè),LOSS 與評(píng)價(jià)指標(biāo)為 RMSE 。按理說(shuō)輸入數(shù)據(jù)前需要對(duì)數(shù)據(jù)做標(biāo)準(zhǔn)化處理,例如 min-max 或者 z-score
1 、應(yīng)該在哪個(gè)維度上對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理呢?例如 z-score: x = np.mean(x, axis = 0) / np.std(x, axis = 0) x = np.mean(x, axis = (0, 1)) / np.std(x, axis = (0, 1)) x = np.mean(x) / np.std(x) 以上哪種是合理的呢?
2 、在實(shí)際嘗試中,我用了 min-max 、z-score 、取對(duì)數(shù)、取 sigmoid 等多種標(biāo)準(zhǔn)化方法,對(duì)應(yīng)的輸出層激活函數(shù)也試過(guò) sigmoid, tanh 或者不使用激活函數(shù),發(fā)現(xiàn)要么 loss 壓根不下降,要么 loss 可以下降但錯(cuò)誤率很高,反而用原始數(shù)據(jù)輸入能得到比較好的結(jié)果(優(yōu)于 ARIMA 等傳統(tǒng)模型),很快模型就收斂了,這是為什么呢?不對(duì)時(shí)間序列做任何預(yù)處理就扔進(jìn)網(wǎng)絡(luò),是可以接受的嗎
前沿探索
2020-08-17 23:43:20
例如一張股票走勢(shì)圖里,檢測(cè)多段具有某種特征的曲線(xiàn)并框起來(lái)(類(lèi)似于目標(biāo)檢測(cè))
前沿探索
2020-08-17 23:43:17
我在云服務(wù)器上 ( 1G, 1cpu ), 總是提示內(nèi)存不夠。請(qǐng)問(wèn) tensorflow2 安裝最低的內(nèi)存要求,或者有什么方法可以避免這個(gè)提示? 謝謝大家~
前沿探索
2020-08-17 23:43:09
比較基礎(chǔ)的最好,對(duì)著官方 doc 跑了一下 demo,稍微熟悉了下,但是很多名詞不是很懂
前沿探索
2020-08-17 23:42:57
本來(lái)要安裝 gpu 版本,安裝顯卡驅(qū)動(dòng)并安裝和 nvidia 容器工具包后,運(yùn)行 docker run --gpus all --rm nvidia/cuda nvidia-smi ,可以看到正常結(jié)果,然后正常安裝 tensorflow-gpu docker 容器(里面的 tengsorflow 可以正常運(yùn)行),完成后 exit 退出 ssh,過(guò)一段時(shí)間再次鏈接再次運(yùn)行發(fā)現(xiàn) docker run --gpus all --rm nvidia/cuda nvidia-smi 會(huì)卡死,同時(shí) tensorflow 容器里面提示無(wú)法找到顯卡,而運(yùn)行其他非 docker 的 gpus 命令正常,有人遇到嗎?百思不得其解,我嘗試重新重啟并從安裝顯卡驅(qū)動(dòng)開(kāi)始又恢復(fù)正常,然后過(guò)段時(shí)間后又失效
前沿探索
2020-08-17 23:42:54
已經(jīng)是訓(xùn)練好的模型了,投入生產(chǎn)環(huán)境也很吃算力,一般的服務(wù)器沒(méi)有獨(dú)立顯卡啊,難道只能跑 cpu 版本,cpu 速度很慢,沒(méi)法用啊,或者給服務(wù)器搞一塊強(qiáng)勁顯卡?
前沿探索
2020-08-17 23:42:47
9 月 22 日,作為國(guó)慶前的西安最后一場(chǎng) TensorFlow 技術(shù)交流,TFUG 將為西安開(kāi)發(fā)者帶來(lái)一場(chǎng)內(nèi)容豐富的深度學(xué)習(xí)技術(shù)交流活動(dòng)。在本次活動(dòng)上,來(lái)自不同專(zhuān)業(yè)背景的三位講師將分別就機(jī)器學(xué)習(xí)領(lǐng)域語(yǔ)言新寵 Julia (胡鍵,上海圭步 CTO )、領(lǐng)域知識(shí)圖譜(鄧葉勛,美亞柏科 AI 研發(fā)中心機(jī)器學(xué)習(xí)算法工程師)和 TensorFlow 入門(mén)(翟軍志,深信科創(chuàng)高級(jí)工程師)給大家?guī)?lái)精彩的分享和討論。時(shí)間:9 月 22 日 13:30-17:30 地點(diǎn):天谷八路軟件新城 2 期 c1 阿里巴巴絲路總部 19 樓 公眾號(hào)搜:TFUG 西安
前沿探索
2020-08-17 23:42:41
今天在 GDD 聽(tīng)了 tf.text 主題演講,演講者在 demo 中使用 Unicode 分字,把中文句子分成單字。
而我和同事在過(guò)去多用詞典法分詞。
想要討論下分字和詞典法分詞兩個(gè)效果有什么差異,結(jié)果一直沒(méi)能堵到演講者 ??。
不知道各位在應(yīng)用過(guò)程中有沒(méi)有對(duì)這方面做過(guò)評(píng)估。
前沿探索
2020-08-17 23:42:37
| category | ------------- |'家居', '室內(nèi)設(shè)計(jì)', '裝飾裝潢' |'房地產(chǎn)', '建筑', '建材', '工程' |'房地產(chǎn)'
不支持表格。。。
前沿探索
2020-08-17 23:42:30
用了新的 Tesorflow,感覺(jué)完全為了照顧小白,把原來(lái)的老用戶(hù)給屠殺的干干凈凈。 動(dòng)態(tài)圖計(jì)算,我根本不需要,性能、移植性是我考慮的目標(biāo)。 現(xiàn)在 TF 不僅包越來(lái)越大,趨于臃腫,連語(yǔ)法都看不懂,叫 TfKeras 得了。 有介紹說(shuō) MXNET 很好,看看大家怎么想。
前沿探索
2020-08-17 23:42:27
#Tensorflow 入門(mén)教程 http://tensornews.cn/ 深度學(xué)習(xí)發(fā)展史 特征工程 深度學(xué)習(xí)之激活函數(shù) 損失函數(shù) 反向傳播算法 [上] 反向傳播算法 [下] Tensorflow 介紹和安裝 Tensorflow 基本操作 卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)操作 手寫(xiě)數(shù)字識(shí)別數(shù)據(jù)集介紹 卷積神經(jīng)實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別 卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典模型概述 卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典模型 LeNet 綜述 RNN 循環(huán)神經(jīng)網(wǎng)絡(luò) 七步帶你實(shí)現(xiàn) RNN 循環(huán)神經(jīng)網(wǎng)絡(luò)小示例 常用 RNN 網(wǎng)絡(luò)結(jié)構(gòu)及依賴(lài)優(yōu)化問(wèn)題 RNN 的應(yīng)用及注意力模型 Tensorboard [上] Tensorboard [下] tensorflow_multi_gpu Awesome_Tensorflow
前沿探索
2020-08-17 23:42:22
同樣的代碼,在 spyder 里面運(yùn)行和直接在 Ubuntu 控制臺(tái)上運(yùn)行的結(jié)果不一致,如下截圖 spyder 的控制臺(tái): https://i.loli.net/2019/06/28/5d15cc7f0daf243402.png ubuntu 控制臺(tái): https://i.loli.net/2019/06/28/5d15cc7fcf86410820.png
順便問(wèn)一句,tensorflow,一直沒(méi)有使用 GPU 來(lái)跑,這是為啥? cuda 版本:10.01 python:3.6.7 tensorflow 1.13.1
tensorflow-estimator 1.13.0
tensorflow-gpu 1.13.1 cudnn 7.5 也試過(guò)將這些東西重裝了一次,還是不行 運(yùn)行 tensorflow 的時(shí)候,一直沒(méi)有報(bào)錯(cuò),但是把我的顯卡內(nèi)存占用了,卻在用 cpu 來(lái)跑,GPU(GTX960)利用率為<10% 部分代碼: gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.33) with tf.Session(gpu_options=gpu_options,config=tf.ConfigProto(log_device_placement=True)) as sess: sess.run(mymode.global_init) #初始全局節(jié)點(diǎn) 郁悶...
前沿探索
2020-08-17 23:42:18
其實(shí)現(xiàn)在 TensorFlow 1.13 版已經(jīng)有大量 tf.keras 的 API 了, 我嘗試將 MobileNet V2 用 keras 那套 subclassing 方法寫(xiě)了一遍。 發(fā)現(xiàn)無(wú)論怎樣操作都無(wú)法把 tf.keras.layers 里 Batch Normalization 的 running mean 以及 running variance 加進(jìn) UpdateOps 這個(gè) Collection, 同時(shí),類(lèi)似這種情況含有 regularization 的 Conv2D 中也不會(huì)把 regularization 加進(jìn) regularization loss collection 里。 查了下 GitHub 上相關(guān)的 issue, 有人說(shuō)用 keras 那套 model.compile 和 model.fit 來(lái)進(jìn)行 training 可以 update 這些。 這是不是意味著以后習(xí)慣靜態(tài)圖的玩家基本就沒(méi)有框架可用了。
前沿探索
2020-08-17 23:42:14
被 Tensorboard 折磨 ing, 碰到這個(gè)問(wèn)題,不得其解。 首先我用 placeholder 定義了一個(gè)計(jì)算圖,并將其中的某些變量添加到了 tf.summary.scalar()中。 隨后我以如下方式添加了 tf.summary.merge_all() # Graph has been defined above # And variables have beed added via tf.summary.scalar() init = tf.global_variables_initializer() if save_dir is not None: merged_summary_op = tf.summary.merge_all() # Training process... with tf.Session() as sess: sess.run(init) print(tf.get_collection(tf.GraphKeys.SUMMARIES), merged_summary_op) # returns [] None
報(bào)錯(cuò)顯示為: cost, rcost, merged = sess.run([self.cost, self.rcost, merged_summary_op], feed_dict={self.mode:'train', self.x:data, self.labels:label}) TypeError: Fetch argument None has invalid type ( merged_summary_op -> None )
請(qǐng)問(wèn)這是什么原因?qū)е碌模?我查到了一篇博客,里面描述了一種情形,我也不太理解。這會(huì)是跟我類(lèi)似的問(wèn)題嗎?
博客鏈接
前沿探索
2020-08-17 23:42:12
數(shù)據(jù)來(lái)源是京東新款手機(jī)的評(píng)論和打分,目前收集到 2500 條數(shù)據(jù),但打分小于 5 分的只有不到 40 條
訓(xùn)練模型層次是:嵌入層-》 LSTM-》 Dense-》 Dense-》輸出層 嵌入層的初始數(shù)據(jù)為 word2vec 訓(xùn)練的詞向量 輸入的訓(xùn)練數(shù)據(jù)為詞索引,標(biāo)記為打分
部分代碼如下: def main(): x_train = pad_seq() y_train = star() x_train, y_train, x_test, y_test = set_data(x_train, y_train) model = Sequential() model.add(Embedding(input_dim=input_dim+1, output_dim=output_dim, input_length=k, embeddings_initializer=my_init)) model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2, activation='sigmoid')) model.add(Dense(256, activation='relu')) model.add(Dense(128, activation='relu')) model.add(Dense(1,activation='sigmoid')) model.compile(loss="binary_crossentropy", optimizer="adam", metrics=["accuracy"]) model.fit(x_train, y_train, batch_size=batch_size, epochs=15) score, acc = model.evaluate(x_test, y_test, batch_size=batch_size) print('Test score:', score) print('Test accuracy:', acc)
然而訓(xùn)練結(jié)果是這樣的。。。 Epoch 15/15 32/2015 [..............................] - ETA: 0s - loss: -63.2713 - acc: 0.0000e+00 160/2015 [=>............................] - ETA: 0s - loss: -63.4706 - acc: 0.0000e+00 288/2015 [===>..........................] - ETA: 0s - loss: -63.5481 - acc: 0.0000e+00 384/2015 [====>.........................] - ETA: 0s - loss: -63.2713 - acc: 0.0026 480/2015 [======>.......................] - ETA: 0s - loss: -63.3046 - acc: 0.0021 608/2015 [========>.....................] - ETA: 0s - loss: -63.4024 - acc: 0.0016 736/2015 [=========>....................] - ETA: 0s - loss: -63.3796 - acc: 0.0027 864/2015 [===========>..................] - ETA: 0s - loss: -63.3821 - acc: 0.0023 992/2015 [=============>................] - ETA: 0s - loss: -63.3838 - acc: 0.0020 1120/2015 [===============>..............] - ETA: 0s - loss: -63.3852 - acc: 0.0018 1248/2015 [=================>............] - ETA: 0s - loss: -63.3991 - acc: 0.0016 1376/2015 [===================>..........] - ETA: 0s - loss: -63.4104 - acc: 0.0015 1504/2015 [=====================>........] - ETA: 0s - loss: -63.3879 - acc: 0.0020 1632/2015 [=======================>......] - ETA: 0s - loss: -63.4081 - acc: 0.0018 1760/2015 [=========================>....] - ETA: 0s - loss: -63.4344 - acc: 0.0017 1888/2015 [===========================>..] - ETA: 0s - loss: -63.4233 - acc: 0.0021 2015/2015 [==============================] - 1s 470us/step - loss: -63.4214 - acc: 0.0020 32/504 [>.............................] - ETA: 2s 504/504 [==============================] - 0s 412us/step Test score: -63.769539061046785 Test accuracy: 0.0 Process finished with exit code 0
model 如下: _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_1 (Embedding) (None, 20, 50) 49350 _________________________________________________________________ lstm_1 (LSTM) (None, 128) 91648 _________________________________________________________________ dense_1 (Dense) (None, 256) 33024 _________________________________________________________________ dense_2 (Dense) (None, 128) 32896 _________________________________________________________________ dense_3 (Dense) (None, 1) 129 ================================================================= Total params: 207,047 Trainable params: 207,047 Non-trainable params: 0 _________________________________________________________________
前沿探索
2020-08-17 23:42:08
首先 cuda 裝的是 9.1.85_win10_64 位,是在百度網(wǎng)盤(pán)上下載的 local 可執(zhí)行文件(因?yàn)楣倬W(wǎng)的下載太慢而且聯(lián)網(wǎng)版安裝包也很慢),用 vs2015 測(cè)試自帶 Samples 成功。
然后 cudnn 是下載官網(wǎng)的 9.0 版本,但是按照網(wǎng)上做法測(cè)試報(bào)錯(cuò): #include #include #include using namespace std; void main() { cudnnHandle_t handle; cudnnStatus_t t = cudnnCreate(&handle); cout << cudnnGetErrorString(t); getchar(); }
錯(cuò)誤 MSB3721 命令“"D:\CUDA9.2\Development\bin\nvcc.exe" -gencode=arch=compute_30,code="sm_30,compute_30" --use-local-env --cl-version 2015 -ccbin "C:\Program Files (x86)\Microsoft Visual Studio 14.0\VC\bin" -x cu -ID:\CUDA9.2\Development\include -ID:\CUDA9.2\Development\include -G --keep-dir Debug -maxrregcount=0 --machine 32 --compile -cudart static -g -D_MBCS -Xcompiler "/EHsc /W3 /nologo /Od /FS /Zi /RTC1 /MDd " -o Debug\test.cu.obj "C:
前沿探索
2020-08-17 23:42:03
我的 python 版本是 Python 3.4.8[email?protected] :~(spider)$ pip install --ignore-installed --upgrade 'https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl'--user Collecting https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user HTTP error 404 while getting https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user Could not install requirement https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user because of error 404 Client Error: Not Found for url:https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user Could not install requirement https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user because of HTTP error 404 Client Error: Not Found for url:https://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user for URLhttps://github.com/sigilioso/tensorflow-build/raw/master/tensorflow-1.4.0-cp36-cp36m-linux_x86_64.whl--user 下載版本的報(bào)錯(cuò),直接 pip3 install tensorflow 的話(huà)不能用 Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 FMA 我是想用這個(gè)浮點(diǎn)運(yùn)算的,現(xiàn)在如何下載對(duì)應(yīng)版本的 tensorflow
前沿探索
2020-08-17 23:41:59
我是參考這位兄弟的文章練習(xí)的,只不過(guò)我的環(huán)境換成了 Ubuntu,
https://www.jianshu.com/p/db8824205fc3
根據(jù)這位博主的測(cè)試,第一千步就差不多能達(dá)到 90%準(zhǔn)確率。 step:100 loss:1.5357 accuracy:0.4900 step:200 loss:1.0189 accuracy:0.7000 step:300 loss:0.7720 accuracy:0.7850 step:400 loss:0.6589 accuracy:0.8000 step:500 loss:0.4987 accuracy:0.8300 step:600 loss:0.5863 accuracy:0.8100 step:700 loss:0.5242 accuracy:0.8350 step:800 loss:0.3541 accuracy:0.9000 step:900 loss:0.5004 accuracy:0.8700 step:1000 loss:0.3152 accuracy:0.9050
可是我訓(xùn)練了差不多一百萬(wàn)步,始終在 0.3~0.4 徘徊,不收斂,里面有些大小寫(xiě)的錯(cuò)誤我都修正了,還是不得要領(lǐng)。
我的訓(xùn)練結(jié)果: step:100 loss:2.2414 accuracy:0.2250 used time: 3 s step:200 loss:2.0146 accuracy:0.3450 used time: 7 s step:300 loss:1.9829 accuracy:0.2900 used time: 11 s step:400 loss:1.8127 accuracy:0.3350 used time: 15 s step:500 loss:1.9361 accuracy:0.3150 used time: 19 s step:600 loss:1.8108 accuracy:0.3300 used time: 23 s step:700 loss:1.7482 accuracy:0.3950 used time: 27 s step:800 loss:1.7227 accuracy:0.3200 used time: 31 s step:900 loss:1.7529 accuracy:0.3500 used time: 35 s step:1000 loss:1.7124 accuracy:0.3300 used time: 38 s step:1100 loss:1.7832 accuracy:0.3350 used time: 42 s step:1200 loss:1.7278 accuracy:0.3500 used time: 46 s step:1300 loss:1.6402 accuracy:0.3000 used time: 50 s step:1400 loss:1.6699 accuracy:0.3200 used time: 54 s step:1500 loss:1.6819 accuracy:0.3600 used time: 59 s step:1600 loss:1.7417 accuracy:0.3400 used time: 63 s step:1700 loss:1.7227 accuracy:0.3350 used time: 67 s step:1800 loss:1.6762 accuracy:0.3850 used time: 71 s step:1900 loss:1.6828 accuracy:0.3150 used time: 75 s step:2000 loss:1.6694 accuracy:0.2900 used time: 79 s step:2100 loss:1.6974 accuracy:0.2950 used time: 83 s step:2200 loss:1.6517 accuracy:0.3450 used time: 87 s step:2300 loss:1.6009 accuracy:0.3600 used time: 91 s step:2400 loss:1.7358 accuracy:0.3300 used time: 95 s step:2500 loss:1.7149 accuracy:0.3500 used time: 99 s step:2600 loss:1.6166 accuracy:0.3850 used time: 103 s step:2700 loss:1.6242 accuracy:0.3500 used time: 107 s step:2800 loss:1.6648 accuracy:0.3550 used time: 111 s step:2900 loss:1.6295 accuracy:0.3050 used time: 115 s step:3000 loss:1.6616 accuracy:0.3400 used time: 119 s
聯(lián)系了博主,博主表示檢查了很久也不知道為什么會(huì)這樣。而且同一篇文章下也有其它網(wǎng)友說(shuō)遇到了同樣的問(wèn)題。
請(qǐng)教下各位大神~先謝過(guò)了。
前沿探索
2020-08-17 23:41:57
最近在學(xué)習(xí) python,想入門(mén)一下深度學(xué)習(xí),網(wǎng)上搜了一些大都是用的 python2.7,因?yàn)閯傞_(kāi)始所以不太明白,TensorFlow 是支持 python3 的,請(qǐng)教各位一下,有好的書(shū)籍或者視頻推薦嗎?
前沿探索
2020-08-17 23:41:53
偶然又看到“限制性三體問(wèn)題”:理想模式下,就 3 個(gè)星體,不考慮 3 個(gè)星體之外的環(huán)境擾動(dòng)。已知 3 個(gè)星體的能量、動(dòng)量、角動(dòng)量,設(shè)置初始狀態(tài)不考慮形狀、質(zhì)心偏移等因素。這種情況下的“限制性三體問(wèn)題”,依然沒(méi)有數(shù)學(xué)上的解析解。顯然是目前的數(shù)學(xué)工具不夠。想了一下,是不是和偏微分方程沒(méi)有精確解是同一個(gè)本質(zhì)? 三體問(wèn)題應(yīng)該要用全微分的,如果 4 體問(wèn)題要用全微分+1 維常微分(已經(jīng)找不到數(shù)學(xué)里的方式去描述了),所以 N 體問(wèn)題無(wú)解,本質(zhì)上是目前沒(méi)有比微分方程更高一級(jí)的數(shù)學(xué)表述工具。 我的理解是至少要有一種泰勒級(jí)數(shù)展開(kāi)這樣的分析方法,去做為微分方程的展開(kāi)式表示,才能處理 N 體問(wèn)題? 剛上渣本的低年級(jí)新鳥(niǎo),敘述不準(zhǔn)多多指正。
前沿探索
2020-08-17 23:41:30
圖中劃線(xiàn)部分左閉區(qū)間是怎么得出來(lái)的?
h(x0)為什么一定取得到?
前沿探索
2020-08-17 23:41:27
因?yàn)橄霃念^學(xué)習(xí)數(shù)學(xué),最近在看陶哲軒的 實(shí)分析 ,首先就是定義自然數(shù):
Axiom 2.1. 0 is a natural number.
Axiom 2.2. If n is a natural number, then n++ is also a natural number.
Axiom 2.3. Axiom 2.3. 0 is not the successor of any natural number; i.e., we have n++ = 0 for every natural number n.
Axiom 2.4. Different natural numbers must have different successors; i.e., if n, m are natural numbers and n = m, then n++ = m++. Equivalently2, if n++ = m++, then we must have n = m.
前四條看下來(lái),有兩個(gè)疑問(wèn): "0"這個(gè)符號(hào)是自然數(shù),但它是如何對(duì)應(yīng)到我們所認(rèn)知的 0 這個(gè)數(shù)量的 "++"這個(gè)動(dòng)作為什么是+1,而不是+0.1,+0.77
作者顯然知道我們會(huì)有這些疑惑,緊接著給出一個(gè)例子:
N := {0, 0.5, 1, 1.5, 2, 2.5, 3, 3.5,...}.
并且勾勒出目前只缺少一個(gè)公理 :
What we want is some axiom which says that the only numbers in N are those which can be obtained from 0 and the increment operation - in order to exclude elements such as 0.5.
可是最后一個(gè)公理是數(shù)學(xué)歸納法原理:
Axiom 2.5 (Principle of mathematical induction). Let P(n) be any property pertaining to a natural number n. Suppose that P(0) is true, and suppose that whenever P(n) is true, P(n++) is also true. Then P(n) is true for every natural number n.
對(duì) axiom 2.5 的補(bǔ)充說(shuō)明是這樣:
The informal intuition behind this axiom is the following. Suppose P(n) is such that P(0) is true, and such that whenever P(n) is true, then P(n++) is true. Then since P(0) is true, P(0++) = P(1) is true. Since P(1) is true, P(1++) = P(2) is true. Repeating this indefinitely, we see that P(0), P(1), P(2), P(3), etc. are all true - however this line of reasoning will never let us conclude that P(0.5), for instance, is true. Thus Axiom 2.5 should not hold for number systems which contain “ unnecessary ” elements such as 0.5. ——這里直將 0++ 賦值給變量“ 1 ”,1++賦值給變量“ 2 ”,并且直接認(rèn)為變量"1"的值就是我們熟悉的數(shù)量 1,變量“ 2 ”的值就是我們熟悉的數(shù)量 2,由此證明自然數(shù)集合中不存在 0.5 這樣的數(shù)。這樣的推理科學(xué)嗎?還有我上述的第一個(gè)疑問(wèn)( "0"這個(gè)符號(hào)是自然數(shù),但它是如何對(duì)應(yīng)到我們所認(rèn)知的 0 這個(gè)數(shù)量的 )貌似也沒(méi)有解決。
前沿探索
2020-08-17 23:41:19
大概是今年 1 月中旬開(kāi)始復(fù)習(xí) AES,參考了 matt wu 的這篇 AES 標(biāo)準(zhǔn)及 Rijndael 算法解析 以及他的源碼。不知不覺(jué)寫(xiě)了快一萬(wàn)字。。。昨天剛收尾,大體完成吧,先發(fā)給導(dǎo)師過(guò)了一遍,有些地方可能會(huì)討論和打磨一下∠(?」∠)_
指路-> AES study based on FIPS 197
文章沒(méi)有涵蓋 AES 的所有知識(shí)點(diǎn),主要記錄了我在復(fù)習(xí) AES 的過(guò)程中比較生疏的幾處內(nèi)容,相對(duì)印象深刻的地方就一筆帶過(guò)了。能把知識(shí)轉(zhuǎn)化成自己的記錄還是很有意思的呀,歡迎 V 站帶佬們指正,再修改修改準(zhǔn)備發(fā)給學(xué)弟學(xué)妹們當(dāng)復(fù)習(xí)資料了( σ'ω')σ
前沿探索
2020-08-17 23:41:14
從代碼可讀性的角度看數(shù)學(xué)演算中的標(biāo)識(shí)符命名
前沿探索
2020-08-17 23:41:06
https://github.com/jantic/DeOldify/blob/master/README.md 一個(gè)有趣的 CUDA 項(xiàng)目,可以將黑白老照片變成彩色的。
前沿探索
2020-08-17 23:41:02
http://i.imgur.com/4s1hBfN.png
不死心問(wèn)一下筆記本 1050 支持 cudnn 嗎?
既然支持 cuda,怎么會(huì)不成功呢?
http://i.imgur.com/mT99ID0.jpg
前沿探索
2020-08-17 23:40:59
目前需求是用到圖形識(shí)別和數(shù)據(jù)的整理和統(tǒng)計(jì),數(shù)量級(jí)也就是幾十萬(wàn)條的,不算很大。
前沿探索
2020-08-17 23:40:55
比如說(shuō)三千塊左右的顯卡, GTX 1070 擁有 1920 個(gè)流處理單元, 8G 顯存。 Quadro M2000 只有 768 個(gè)單元, 4G 顯存。
游戲卡的誘惑太大了啊,顯存大,單元多...我知道專(zhuān)業(yè)卡在 CAD 方面可能有加成,但是不知道對(duì)于 CUDA 這種并行計(jì)算有沒(méi)有優(yōu)化,或者說(shuō)可以更加穩(wěn)定?
前沿探索
2020-08-17 23:40:53
不是用來(lái)打游戲, 是搞深度學(xué)習(xí)用的( CUDA / caffe / DIGITS )
之前花 30k 一塊的價(jià)格,買(mǎi)了幾塊 tesla K40C ,裝 ubuntu 跑深度學(xué)習(xí)了,運(yùn)算能力真是強(qiáng)悍,但是另一位導(dǎo)師接受不了這個(gè)采購(gòu)價(jià)格,只能買(mǎi) 5k 左右的卡,求推薦!能裝 ubuntu 就行,(他之前有塊泰坦,裝 ubuntu 顯示 unknown chipset maxwell ),應(yīng)該是麥克斯韋架構(gòu)的卡裝不了 ubuntu ,我也不太清楚具體情況。
要求:在這張表里的卡 https://developer.nvidia.com/cuda-gpus
價(jià)格 5k 左右就行,給推薦點(diǎn),謝謝各位
前沿探索
2020-08-17 23:40:47
最近考慮換工作(換行業(yè)),希望轉(zhuǎn)到人工智能等新領(lǐng)域,但是對(duì)這些領(lǐng)域商業(yè)應(yīng)用上接觸很少,目前比較中意 CUDA 和 EMC 存儲(chǔ)相關(guān)的工作。求指導(dǎo)?1 ,簡(jiǎn)單了解了一下 CUDA/openCL ,感覺(jué)確實(shí)殺傷力迅猛,對(duì) ML 之類(lèi)的應(yīng)用確實(shí)有催化劑的作用,但是目前真正使用 OpenCL/CUDA 作為底層基礎(chǔ)的成功案例多嗎?未來(lái)市場(chǎng)是否會(huì)持續(xù)擴(kuò)張。 2 ,存儲(chǔ)部分在云計(jì)算 /人工智能未來(lái)是什么角色?目前主流商業(yè)市場(chǎng)上游有哪些產(chǎn)業(yè) /公司? 3 ,前些日子感覺(jué) FPGA/GPU/TPU 撕 B 了一頓,這些高大深的領(lǐng)域我們也只是看客? 個(gè)人對(duì)這些計(jì)算結(jié)構(gòu)不是很了解,簡(jiǎn)單認(rèn)為 FPGA 作為底層中間實(shí)現(xiàn)了標(biāo)準(zhǔn)的 OpenCL 不知道有沒(méi)有大規(guī)模的商用案例??雌饋?lái)確實(shí)會(huì)比 GPU 等效率高很多。 GPU 應(yīng)該是目前成功的商業(yè)案例,但是 CUDA 自己官網(wǎng)上說(shuō)全球有 700+計(jì)算集群,這個(gè) 700 不是到是什么概念。 TPU 不說(shuō)了沒(méi)有公開(kāi)資料,個(gè)人認(rèn)為應(yīng)該局限性比較大。 小白求噴. :)
前沿探索
2020-08-17 23:40:44