掛了好幾次了
所謂的 serverLess 這么不靠譜嗎?
剛準備上車,就翻車了
余額呢?
文檔里說 AVObject 有大小限制,所以超過 128 KB 的數(shù)據(jù)不能直接存儲到 AVObject 里面,可以使用「 AVFile 」文件類型來存儲,但是一直沒找到如何把內(nèi)容(文字和圖片鏈接)存儲的辦法。文檔里的 demo 都是如何上傳圖片文件的。在這里請教下各位了!
最近做了很多小型的活動,往往是用戶會產(chǎn)生一些數(shù)據(jù),例如報名,提交一個表單之類的。這種簡單的需求用 LeanCloud 來實現(xiàn)是非常方便的。不用寫后端代碼,不用部署后端應用,把運營人員的賬號加入到協(xié)作,他們就可以隨時查看數(shù)據(jù)了,甚至都不用寫管理界面了。 美中不足的是,LeanCloud 的數(shù)據(jù)存儲管理界面面向的用戶群體還是以開發(fā)者為主,運營的同學用起來會不太順手。 另外一個需求就是導出數(shù)據(jù)到 Excel,運營同學對于 Excel 的使用還是得心應手的。 于是就有了這個工具: https://github.com/ROYL-Design/leanstorage-exporter Demo 放在 Github Pages 上: https://royl-design.github.io/leanstorage-exporter/ 可以查詢 LeanStorage 的數(shù)據(jù),并且導出為 Excel、CSV 等格式的文件。 你可以直接使用 Demo,或者部署在本地,又或者自己的服務器上。 使用 Vue.js + SheetJS,100%前端實現(xiàn),100%開源,無需擔心數(shù)據(jù)風險。 希望可以幫到大家。
申請 cdn 加速需要開通商業(yè)版,有備案域名,如果是 iPhone 應用,最好開通 https。這里有申請郵箱: https://forum.leancloud.cn/t/cdn/14318 LeanCloud 的備案流程大概是:初審-申請幕布-上傳照片-郵寄資料-復審-提交 其實你在上?;虮本┑脑?初審后有個地址你直接去就行,我去的是 Ucloud。然后直接到復審,會省掉不少時間。 備案的同時申請 ssl 證書,我用的是 https://www.aliyun.com/product/cas 免費版走了不少彎路,折騰了半個多月,希望后來者不要踩坑。
leancloud 測試并發(fā)如下, 帶數(shù)據(jù)庫查詢: Running 10s test @ http://xxxx.leanapp.cn/?id=58b62dfa61ff4b006ccc0113 12 threads and 100 connections Thread Stats Avg Stdev Max +/- Stdev Latency 172.36ms 159.26ms 1.37s 80.84% Req/Sec 54.37 21.85 128.00 63.17% 6459 requests in 10.09s, 9.06MB read Non-2xx or 3xx responses: 4756 Requests/sec: 640.04 Transfer/sec: 0.90MB
阿里云的并發(fā)測試, 1 核 1G 最低配, 不帶數(shù)據(jù)庫查詢: Running 10s test @ http://xxx.76.215.104:3000/ 12 threads and 100 connections Thread Stats Avg Stdev Max +/- Stdev Latency 312.36ms 139.82ms 1.89s 92.13% Req/Sec 21.15 11.70 70.00 63.86% 2007 requests in 10.10s, 0.94MB read Socket errors: connect 0, read 0, write 0, timeout 43 Requests/sec: 198.80 Transfer/sec: 95.13KB
0.5 CPU 具體是什么配置
RT
最近 leancloud 調(diào)整了收費政策,要么用免費但資源少的開發(fā)版,要么每個月 900 用商業(yè)版~ 很奇怪為什么不再增加一個彈性計算版?@LeanCloud
所以在此問問大家有沒有類似的平臺推薦?或者源碼也是極好的。
要求不多,有用戶管理以及數(shù)據(jù)存儲功能即可(包括數(shù)據(jù)存取時的用戶權限控制
謝謝大家??
自 2016 年 7 月 5 日周二零時起,通過 LeanCloud 發(fā)送國內(nèi)文本短信的價格將從每條 0.06 元下調(diào)至 0.05 元,降幅達到 17%。
這是在我們與渠道服務商的共同努力下進一步優(yōu)化了通道成本的結果,我們愿意讓 LeanCloud 用戶享受由此帶來的價格優(yōu)惠。
短信發(fā)送記錄可以在 應用控制臺 > 消息 > 短信 中查詢,短信費用會在郵件賬單中列出。如果有任何疑問,請聯(lián)系 [email?protected] 。
不是很了解 LeanCloud 的開發(fā)者經(jīng)常會問「 LeanCloud 與已有的很多云服務有什么區(qū)別呢?」下面我們就以國內(nèi)比較有代表性的阿里云為例,跟我們做下對比。
產(chǎn)品的區(qū)別
進入阿里云網(wǎng)站可以看到阿里云的產(chǎn)品介紹。產(chǎn)品列表有彈性計算、數(shù)據(jù)庫、存儲與 CDN 、網(wǎng)絡、大規(guī)模計算、云盾、管理與監(jiān)控、應用服務、互聯(lián)網(wǎng)中間件、移動服務、域名與網(wǎng)站等,每個選項下面又有非常多的子產(chǎn)品列表,提供的服務種類繁多。個人感覺幾乎開發(fā)中需要使用的服務器產(chǎn)品,阿里云應該都提供了。這些產(chǎn)品更偏向于較底層的服務,用戶要想使用起來需要具備一定的能力。
LeanCloud 則完全不同。它提供了四項產(chǎn)品,分別是 LeanStorage (數(shù)據(jù)、文件存儲及云引擎)、 LeanMessage (短信、推送及實時通訊服務)、 LeanAnalytics (統(tǒng)計分析服務)、 LeanModules (各種其他通用組件)??雌饋砗芫唴s有些抽象,那這些產(chǎn)品具體又能滿足什么需求呢?
概念上的區(qū)別
阿里云提供的是類似于 AWS (亞馬遜的云服務)一樣的傳統(tǒng)云服務。使用了阿里云你就不用再去操心那些與硬件和底層運維相關的事情,比如硬盤損壞、主機托管、服務器配置網(wǎng)絡等等。
但如果想要開發(fā)一個自己的 App ,你仍然需要在阿里云上購買機器,選擇部署到哪個機房,還要購買數(shù)據(jù)庫,選擇數(shù)據(jù)具體是怎樣的規(guī)格,然后還要對這臺機器進行完整的配置。雖然比沒有云服務的日子已經(jīng)輕松了許多,但這些操作仍然需要一個專業(yè)的工程師才能很好地完成。
而使用 LeanCloud 用戶卻不需要操心這些事情,可以說基本上不用考慮服務器的細節(jié)。
LeanCloud 提供的是 BaaS 服務( Backend as a Service 后端即服務),又被稱為云服務 2.0 。簡而言之,云服務 1.0 解決的是不再讓你擔心服務器,而 BaaS 的目標是幫你解決全部服務器運維,甚至是部分后端業(yè)務邏輯。那 LeanCloud 究竟是怎么做到的呢?回答這個問題之前,我們看下一個 App 一般都是什么樣子。
以 LeanCloud 的用戶「懂球帝」為參考,不論什么產(chǎn)品基本上都需要一套賬號系統(tǒng),目前較通用的做法是使用手機號碼注冊,發(fā)送短信驗證;基于這個賬號還要存儲一些數(shù)據(jù)項,如昵稱、頭像等信息,再到真正的主業(yè)務邏輯,需要通過服務器基于某個邏輯運算出結果交給客戶端做展示。
那么我們再考慮一個問題,為什么我們每次做一個產(chǎn)品都要反反復復地開發(fā)這些差不多一樣的邏輯呢?比如賬號系統(tǒng)、數(shù)據(jù)存儲、短信驗證、郵件驗證、推送服務甚至是即時聊天,有沒有辦法讓這些東西拿來就用,讓自己能夠最快速地投入開發(fā)呢?當然有辦法,這就是 LeanCloud 所做的事情。
具體使用 LeanCloud
來舉個具體例子。在 LeanCloud 中想要實現(xiàn)一套賬號系統(tǒng)共分為三步:注冊賬號、創(chuàng)建一個應用、下載對應的 SDK 。就這三步?難道不用寫代碼嗎?是的,不用寫代碼你其實已經(jīng)擁有了一套支持 ACL (訪問權限控制)、支持短信驗證注冊、支持郵件注冊這樣具備完整安全體系的賬號系統(tǒng),客戶端工程師只需直接使用即可。例如, Web 前端通過 JavaScript SDK 在瀏覽器使用賬戶系統(tǒng),具體代碼如下: // 創(chuàng)建一個實例 const user = new AV.User(); // 設置用戶名 user.set('username', 'wangxiao); // 設置密碼 user.set('password', 123456789); // 注冊 user.signUp().then(user => { // 注冊成功 }, error => { // 注冊失敗 });
再如經(jīng)常被使用的短信驗證功能,你不需要去找服務端工程師去開發(fā)一個專用接口,而是直接在瀏覽器中調(diào)用 JavaScript SDK 的方法(支持模板來定制短信內(nèi)容),具體代碼如下: // 發(fā)送手機驗證碼 AV.Cloud.requestSmsCode({ mobilePhoneNumber: '182xxxx5548' }).then(() => { // 發(fā)送成功 }, error => { // 發(fā)送失敗 }); // 校驗驗證碼 AV.Cloud.verifySmsCode('1234', '182xxxx5548') .then(() => { // 驗證成功 }, error => { // 驗證失敗 }); // 短信模板 AV.Cloud.requestSmsCode({ mobilePhoneNumber: '182xxxx5548', template: 'Template_Name', ttttName: '自定義模板變量名' }).then(() => { // 發(fā)送成功 }, error => { // 發(fā)送失敗 });
短信驗證僅僅是我們所開放的眾多功能中的一項,你還可以使用 SDK 輕松實現(xiàn)數(shù)據(jù)存儲、文件存儲( CDN )、推送、即時聊天等實用功能。如此以來你的開發(fā)效率會大幅提升,服務器端對于你來說完全是透明的,這樣就能把所有精力集中到研發(fā)核心產(chǎn)品上去,而后續(xù)的數(shù)據(jù)運營和管理工作可以直接在 LeanCloud 的控制臺中進行,甚至在初期你都不需要給運營人員編寫一個對應的管理后臺。
成本的區(qū)別
選擇傳統(tǒng)的云服務,你可能需要更多地去了解服務端的結構,要綜合考慮在云服務上搭建出一套自己的系統(tǒng)所付出的成本,還需要找到合適的工程師去維護這些服務,找到后端工程師來開發(fā)服務端很多通用的業(yè)務邏輯。
如果使用 LeanCloud 這些事情都不用去考慮,直接使用相應的服務即可。同時我們的云服務按照使用量計費,并提供了一定額度的免費使用量,在初期用戶量少的時候基本不會產(chǎn)生什么費用,只有當用戶量增長到一定量級時才會產(chǎn)生相應的費用。總之使用 LeanCloud 不僅僅省去了后期運維的成本,還減少了后端工程師的工作量,加速產(chǎn)品迭代。
我是特地來點個贊的。 Leanote 是個讓我眼前一亮的企業(yè) Knowledge base 解決方案。開源后簡直是大大方便了我們!同時Leanote.com 由于具備 Markdown 書寫私有技術文檔,以及一鍵公開為博客的功能,現(xiàn)在已經(jīng)成為我的主力寫作平臺。感謝作者!
同樣的代碼,在 spyder 里面運行和直接在 Ubuntu 控制臺上運行的結果不一致,如下截圖 spyder 的控制臺: https://i.loli.net/2019/06/28/5d15cc7f0daf243402.png ubuntu 控制臺: https://i.loli.net/2019/06/28/5d15cc7fcf86410820.png
順便問一句,tensorflow,一直沒有使用 GPU 來跑,這是為啥? cuda 版本:10.01 python:3.6.7 tensorflow 1.13.1
tensorflow-estimator 1.13.0
tensorflow-gpu 1.13.1 cudnn 7.5 也試過將這些東西重裝了一次,還是不行 運行 tensorflow 的時候,一直沒有報錯,但是把我的顯卡內(nèi)存占用了,卻在用 cpu 來跑,GPU(GTX960)利用率為<10% 部分代碼: gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.33) with tf.Session(gpu_options=gpu_options,config=tf.ConfigProto(log_device_placement=True)) as sess: sess.run(mymode.global_init) #初始全局節(jié)點 郁悶...
其實現(xiàn)在 TensorFlow 1.13 版已經(jīng)有大量 tf.keras 的 API 了, 我嘗試將 MobileNet V2 用 keras 那套 subclassing 方法寫了一遍。 發(fā)現(xiàn)無論怎樣操作都無法把 tf.keras.layers 里 Batch Normalization 的 running mean 以及 running variance 加進 UpdateOps 這個 Collection, 同時,類似這種情況含有 regularization 的 Conv2D 中也不會把 regularization 加進 regularization loss collection 里。 查了下 GitHub 上相關的 issue, 有人說用 keras 那套 model.compile 和 model.fit 來進行 training 可以 update 這些。 這是不是意味著以后習慣靜態(tài)圖的玩家基本就沒有框架可用了。
被 Tensorboard 折磨 ing, 碰到這個問題,不得其解。 首先我用 placeholder 定義了一個計算圖,并將其中的某些變量添加到了 tf.summary.scalar()中。 隨后我以如下方式添加了 tf.summary.merge_all() # Graph has been defined above # And variables have beed added via tf.summary.scalar() init = tf.global_variables_initializer() if save_dir is not None: merged_summary_op = tf.summary.merge_all() # Training process... with tf.Session() as sess: sess.run(init) print(tf.get_collection(tf.GraphKeys.SUMMARIES), merged_summary_op) # returns [] None
報錯顯示為: cost, rcost, merged = sess.run([self.cost, self.rcost, merged_summary_op], feed_dict={self.mode:'train', self.x:data, self.labels:label}) TypeError: Fetch argument None has invalid type ( merged_summary_op -> None )
請問這是什么原因?qū)е碌模?我查到了一篇博客,里面描述了一種情形,我也不太理解。這會是跟我類似的問題嗎?
博客鏈接
數(shù)據(jù)來源是京東新款手機的評論和打分,目前收集到 2500 條數(shù)據(jù),但打分小于 5 分的只有不到 40 條
訓練模型層次是:嵌入層-》 LSTM-》 Dense-》 Dense-》輸出層 嵌入層的初始數(shù)據(jù)為 word2vec 訓練的詞向量 輸入的訓練數(shù)據(jù)為詞索引,標記為打分
部分代碼如下: def main(): x_train = pad_seq() y_train = star() x_train, y_train, x_test, y_test = set_data(x_train, y_train) model = Sequential() model.add(Embedding(input_dim=input_dim+1, output_dim=output_dim, input_length=k, embeddings_initializer=my_init)) model.add(LSTM(128, dropout=0.2, recurrent_dropout=0.2, activation='sigmoid')) model.add(Dense(256, activation='relu')) model.add(Dense(128, activation='relu')) model.add(Dense(1,activation='sigmoid')) model.compile(loss="binary_crossentropy", optimizer="adam", metrics=["accuracy"]) model.fit(x_train, y_train, batch_size=batch_size, epochs=15) score, acc = model.evaluate(x_test, y_test, batch_size=batch_size) print('Test score:', score) print('Test accuracy:', acc)
然而訓練結果是這樣的。。。 Epoch 15/15 32/2015 [..............................] - ETA: 0s - loss: -63.2713 - acc: 0.0000e+00 160/2015 [=>............................] - ETA: 0s - loss: -63.4706 - acc: 0.0000e+00 288/2015 [===>..........................] - ETA: 0s - loss: -63.5481 - acc: 0.0000e+00 384/2015 [====>.........................] - ETA: 0s - loss: -63.2713 - acc: 0.0026 480/2015 [======>.......................] - ETA: 0s - loss: -63.3046 - acc: 0.0021 608/2015 [========>.....................] - ETA: 0s - loss: -63.4024 - acc: 0.0016 736/2015 [=========>....................] - ETA: 0s - loss: -63.3796 - acc: 0.0027 864/2015 [===========>..................] - ETA: 0s - loss: -63.3821 - acc: 0.0023 992/2015 [=============>................] - ETA: 0s - loss: -63.3838 - acc: 0.0020 1120/2015 [===============>..............] - ETA: 0s - loss: -63.3852 - acc: 0.0018 1248/2015 [=================>............] - ETA: 0s - loss: -63.3991 - acc: 0.0016 1376/2015 [===================>..........] - ETA: 0s - loss: -63.4104 - acc: 0.0015 1504/2015 [=====================>........] - ETA: 0s - loss: -63.3879 - acc: 0.0020 1632/2015 [=======================>......] - ETA: 0s - loss: -63.4081 - acc: 0.0018 1760/2015 [=========================>....] - ETA: 0s - loss: -63.4344 - acc: 0.0017 1888/2015 [===========================>..] - ETA: 0s - loss: -63.4233 - acc: 0.0021 2015/2015 [==============================] - 1s 470us/step - loss: -63.4214 - acc: 0.0020 32/504 [>.............................] - ETA: 2s 504/504 [==============================] - 0s 412us/step Test score: -63.769539061046785 Test accuracy: 0.0 Process finished with exit code 0
model 如下: _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding_1 (Embedding) (None, 20, 50) 49350 _________________________________________________________________ lstm_1 (LSTM) (None, 128) 91648 _________________________________________________________________ dense_1 (Dense) (None, 256) 33024 _________________________________________________________________ dense_2 (Dense) (None, 128) 32896 _________________________________________________________________ dense_3 (Dense) (None, 1) 129 ================================================================= Total params: 207,047 Trainable params: 207,047 Non-trainable params: 0 _________________________________________________________________
首先 cuda 裝的是 9.1.85_win10_64 位,是在百度網(wǎng)盤上下載的 local 可執(zhí)行文件(因為官網(wǎng)的下載太慢而且聯(lián)網(wǎng)版安裝包也很慢),用 vs2015 測試自帶 Samples 成功。
然后 cudnn 是下載官網(wǎng)的 9.0 版本,但是按照網(wǎng)上做法測試報錯: #include #include #include using namespace std; void main() { cudnnHandle_t handle; cudnnStatus_t t = cudnnCreate(&handle); cout << cudnnGetErrorString(t); getchar(); }
錯誤 MSB3721 命令“"D:\CUDA9.2\Development\bin\nvcc.exe" -gencode=arch=compute_30,code="sm_30,compute_30" --use-local-env --cl-version 2015 -ccbin "C:\Program Files (x86)\Microsoft Visual Studio 14.0\VC\bin" -x cu -ID:\CUDA9.2\Development\include -ID:\CUDA9.2\Development\include -G --keep-dir Debug -maxrregcount=0 --machine 32 --compile -cudart static -g -D_MBCS -Xcompiler "/EHsc /W3 /nologo /Od /FS /Zi /RTC1 /MDd " -o Debug\test.cu.obj "C:
我是參考這位兄弟的文章練習的,只不過我的環(huán)境換成了 Ubuntu,
https://www.jianshu.com/p/db8824205fc3
根據(jù)這位博主的測試,第一千步就差不多能達到 90%準確率。 step:100 loss:1.5357 accuracy:0.4900 step:200 loss:1.0189 accuracy:0.7000 step:300 loss:0.7720 accuracy:0.7850 step:400 loss:0.6589 accuracy:0.8000 step:500 loss:0.4987 accuracy:0.8300 step:600 loss:0.5863 accuracy:0.8100 step:700 loss:0.5242 accuracy:0.8350 step:800 loss:0.3541 accuracy:0.9000 step:900 loss:0.5004 accuracy:0.8700 step:1000 loss:0.3152 accuracy:0.9050
可是我訓練了差不多一百萬步,始終在 0.3~0.4 徘徊,不收斂,里面有些大小寫的錯誤我都修正了,還是不得要領。
我的訓練結果: step:100 loss:2.2414 accuracy:0.2250 used time: 3 s step:200 loss:2.0146 accuracy:0.3450 used time: 7 s step:300 loss:1.9829 accuracy:0.2900 used time: 11 s step:400 loss:1.8127 accuracy:0.3350 used time: 15 s step:500 loss:1.9361 accuracy:0.3150 used time: 19 s step:600 loss:1.8108 accuracy:0.3300 used time: 23 s step:700 loss:1.7482 accuracy:0.3950 used time: 27 s step:800 loss:1.7227 accuracy:0.3200 used time: 31 s step:900 loss:1.7529 accuracy:0.3500 used time: 35 s step:1000 loss:1.7124 accuracy:0.3300 used time: 38 s step:1100 loss:1.7832 accuracy:0.3350 used time: 42 s step:1200 loss:1.7278 accuracy:0.3500 used time: 46 s step:1300 loss:1.6402 accuracy:0.3000 used time: 50 s step:1400 loss:1.6699 accuracy:0.3200 used time: 54 s step:1500 loss:1.6819 accuracy:0.3600 used time: 59 s step:1600 loss:1.7417 accuracy:0.3400 used time: 63 s step:1700 loss:1.7227 accuracy:0.3350 used time: 67 s step:1800 loss:1.6762 accuracy:0.3850 used time: 71 s step:1900 loss:1.6828 accuracy:0.3150 used time: 75 s step:2000 loss:1.6694 accuracy:0.2900 used time: 79 s step:2100 loss:1.6974 accuracy:0.2950 used time: 83 s step:2200 loss:1.6517 accuracy:0.3450 used time: 87 s step:2300 loss:1.6009 accuracy:0.3600 used time: 91 s step:2400 loss:1.7358 accuracy:0.3300 used time: 95 s step:2500 loss:1.7149 accuracy:0.3500 used time: 99 s step:2600 loss:1.6166 accuracy:0.3850 used time: 103 s step:2700 loss:1.6242 accuracy:0.3500 used time: 107 s step:2800 loss:1.6648 accuracy:0.3550 used time: 111 s step:2900 loss:1.6295 accuracy:0.3050 used time: 115 s step:3000 loss:1.6616 accuracy:0.3400 used time: 119 s
聯(lián)系了博主,博主表示檢查了很久也不知道為什么會這樣。而且同一篇文章下也有其它網(wǎng)友說遇到了同樣的問題。
請教下各位大神~先謝過了。
偶然又看到“限制性三體問題”:理想模式下,就 3 個星體,不考慮 3 個星體之外的環(huán)境擾動。已知 3 個星體的能量、動量、角動量,設置初始狀態(tài)不考慮形狀、質(zhì)心偏移等因素。這種情況下的“限制性三體問題”,依然沒有數(shù)學上的解析解。顯然是目前的數(shù)學工具不夠。想了一下,是不是和偏微分方程沒有精確解是同一個本質(zhì)? 三體問題應該要用全微分的,如果 4 體問題要用全微分+1 維常微分(已經(jīng)找不到數(shù)學里的方式去描述了),所以 N 體問題無解,本質(zhì)上是目前沒有比微分方程更高一級的數(shù)學表述工具。 我的理解是至少要有一種泰勒級數(shù)展開這樣的分析方法,去做為微分方程的展開式表示,才能處理 N 體問題? 剛上渣本的低年級新鳥,敘述不準多多指正。
大概是今年 1 月中旬開始復習 AES,參考了 matt wu 的這篇 AES 標準及 Rijndael 算法解析 以及他的源碼。不知不覺寫了快一萬字。。。昨天剛收尾,大體完成吧,先發(fā)給導師過了一遍,有些地方可能會討論和打磨一下∠(?」∠)_
指路-> AES study based on FIPS 197
文章沒有涵蓋 AES 的所有知識點,主要記錄了我在復習 AES 的過程中比較生疏的幾處內(nèi)容,相對印象深刻的地方就一筆帶過了。能把知識轉(zhuǎn)化成自己的記錄還是很有意思的呀,歡迎 V 站帶佬們指正,再修改修改準備發(fā)給學弟學妹們當復習資料了( σ'ω')σ
因為想從頭學習數(shù)學,最近在看陶哲軒的 實分析 ,首先就是定義自然數(shù):
Axiom 2.1. 0 is a natural number.
Axiom 2.2. If n is a natural number, then n++ is also a natural number.
Axiom 2.3. Axiom 2.3. 0 is not the successor of any natural number; i.e., we have n++ = 0 for every natural number n.
Axiom 2.4. Different natural numbers must have different successors; i.e., if n, m are natural numbers and n = m, then n++ = m++. Equivalently2, if n++ = m++, then we must have n = m.
前四條看下來,有兩個疑問: "0"這個符號是自然數(shù),但它是如何對應到我們所認知的 0 這個數(shù)量的 "++"這個動作為什么是+1,而不是+0.1,+0.77
作者顯然知道我們會有這些疑惑,緊接著給出一個例子:
N := {0, 0.5, 1, 1.5, 2, 2.5, 3, 3.5,...}.
并且勾勒出目前只缺少一個公理 :
What we want is some axiom which says that the only numbers in N are those which can be obtained from 0 and the increment operation - in order to exclude elements such as 0.5.
可是最后一個公理是數(shù)學歸納法原理:
Axiom 2.5 (Principle of mathematical induction). Let P(n) be any property pertaining to a natural number n. Suppose that P(0) is true, and suppose that whenever P(n) is true, P(n++) is also true. Then P(n) is true for every natural number n.
對 axiom 2.5 的補充說明是這樣:
The informal intuition behind this axiom is the following. Suppose P(n) is such that P(0) is true, and such that whenever P(n) is true, then P(n++) is true. Then since P(0) is true, P(0++) = P(1) is true. Since P(1) is true, P(1++) = P(2) is true. Repeating this indefinitely, we see that P(0), P(1), P(2), P(3), etc. are all true - however this line of reasoning will never let us conclude that P(0.5), for instance, is true. Thus Axiom 2.5 should not hold for number systems which contain “ unnecessary ” elements such as 0.5. ——這里直將 0++ 賦值給變量“ 1 ”,1++賦值給變量“ 2 ”,并且直接認為變量"1"的值就是我們熟悉的數(shù)量 1,變量“ 2 ”的值就是我們熟悉的數(shù)量 2,由此證明自然數(shù)集合中不存在 0.5 這樣的數(shù)。這樣的推理科學嗎?還有我上述的第一個疑問( "0"這個符號是自然數(shù),但它是如何對應到我們所認知的 0 這個數(shù)量的 )貌似也沒有解決。
加入我們只需要和我們一起學習! 得到的確實扎實的理論計算機數(shù)學基礎! 介紹: https://www.yuque.com/abser/mathincs/preview 例子: https://www.yuque.com/abser/mathincs/theorem1.5.1
最近接手一個圖形項目,比較多的算法,昨天一個對數(shù)公式都想不起來,今天突然想起才解決了一個 BUG,可惡的是我之前花了 1 天時間去研究相關的東西而無果。。。
現(xiàn)在呢,就是深感自己的數(shù)學知識薄弱,希望想再補一補,和圖形、AI 之類的知識我都想學。
各位有沒有什么書比較推薦的,實在沒有,我可能要買一本公式大全了,,,哈哈!求推薦求介紹。
用謂詞邏輯符號化以下命題,并推證結論的有效性。 “任何人如果他喜歡美術,他就不喜歡體育。每個人或喜歡體育,或喜歡音樂,有的人 不喜歡音樂,因而有的人不喜歡美術?!?設 R 是集合 A 上的二元關系,如果對于任意的 a, b, c∈A,若 aRb 且 bRc,則有 cRa,那 么稱 R 是循環(huán)的。 證明:R 是等價關系當且僅當 R 是自反的和循環(huán)的。
https://www.bilibili.com/video/av71848818?share_medium=android&share_source=more&bbid=XY7209B7792B4FD102B98029D9F07DF81BD80&ts=1571551662834
請問各位 v 友,在注冊數(shù)緣社區(qū)時出現(xiàn)數(shù)據(jù)格式錯誤,無法解析是什么情況?該怎么解決?
假設企業(yè)有四個項目,分數(shù)分別為[100,90,100,80],經(jīng)過分數(shù)排序后得到[100,100,90,80],然后公式為(1 100+2 100+3 90+4 80)/(1+2+3+4)=89.00
大學的時候數(shù)學類沒學好,現(xiàn)在想玩玩 AI 方向,連門都進不去。B 站的那個“線性代數(shù)的本質(zhì)”我已經(jīng)看過了,但是我感覺這教程可能不太適合我,我看到一半的時候,疑問反而變多了,尤其是有一種強烈的“雖然你說線性代數(shù)就是這樣的,但是為什么線性代數(shù)是這樣的呢”這種奇怪的疑問
這個 PDF 列出了各種 LaTeX 輸入數(shù)學符號、字母符號及其他特殊符號的代碼,還有一些特殊格式代碼,方便各位 V 友查閱。注意使用時須用 amssymb 這個宏包。
http://www.caam.rice.edu/~heinken/latex/symbols.pdf
我是一名程序員,想補一下數(shù)學知識 大家有什么好的學習資源或者課程 書籍推薦么 比如線代,離散數(shù)學,具體數(shù)學,有什么好的方法提升編程邏輯思維能力
0.9 ,9 的循環(huán),究竟是不是等于 1 來著,直觀看來是肯定不等于的,但是從極限的角度來說,肯定是等于的~
首先按照https://zhuanlan.zhihu.com/p/56942597 編譯安裝好 GNU Guile 1.8.8。 然后安裝一下構建 GNU TeXmacs 所需的依賴。 最后: git clone [email?protected] :texmacs/texmacs.gitcd texmacs cmake/ build_deb.sh 在執(zhí)行 build_deb.sh 這個腳本的時候,可能會遇到各種編譯需要的依賴缺失,這個時候用 apt 裝一下就可以了。最后編譯完成后,使用 dpkg -i 安裝相關的 deb 即可: sudo dpkg -i ../texmacs_1.99.9-1_amd64.deb 有啥問題可以在評論區(qū)直接問我。 原文鏈接: https://zhuanlan.zhihu.com/p/60232945
Bert 做中文分類任務,使用的模型是哈工大訊飛開源的中文預訓練模型 roberta-wwm-large,按照網(wǎng)上的教程修改了 run-classifier.py ,然后運行之后報了 KeyError 的錯。 已經(jīng)加載了 110000 條數(shù)據(jù)的情況下報錯,感覺應該是 id 為 110000 多的某條數(shù)據(jù)有問題,但是是什么問題并不清楚,請看官們分析一下。 我將 csv 格式的數(shù)據(jù)集的 label 一列打印,是 0-10 的 11 個數(shù)字沒錯,并沒有出現(xiàn) keyerror 后面的中文,但是根據(jù)報錯的信息應該是我的 label 錯了,我不知道是什么情況,難頂。
http://www.csyfyy.com/list/8993/
感受一下,標題讀起來正常,正文基本就是牛頭馬嘴,但是還是有一些關鍵字點題。這是 NLG 嗎?
為公司幫助處理語料時做了 ltext 這個工具。
基本思路是,把文本和標注(用偏移量表達)封裝在一個對象中,對外模擬字符串類型的接口做各種文本操作,比如 replace 和 strip 等方法。在這些方法執(zhí)行時,改動文本同時操作偏移量。
請各位看看這個情景多不多,封裝是不是恰當?
或者還需要增加什么功能。目前只實現(xiàn)了 replace、re_replace 兩個方法。
關于智言: 智言科技于 2016 年 9 月在深圳成立,致力于開發(fā)金融領域的 AI 智能平臺和智能 AI 云服務,中國最專業(yè)的金融知識圖譜問答提供商,為保險、證券、銀行打造國際領先的定制化 AI 解決方案。應用場景涵蓋 AI 智能助理、智能銷售服務助手、智能語音助手、智能輿情分析平臺等,可提供智能客服、業(yè)務直達、業(yè)務咨詢、語音下單等服務,將數(shù)據(jù)轉(zhuǎn)為企業(yè)財富,輔助業(yè)務決策。同時深度挖掘數(shù)據(jù)價值,進行 360°客戶分析,實現(xiàn)獲客及精準營銷。是騰訊 AI 加速器和京東 AI 加速器成員。擁有國家知識產(chǎn)權局審查初審發(fā)明專利 4 項;計算機軟著著作權共 15 項。80%員工為技術開發(fā)人員,公司研發(fā)團隊組成 45 人專業(yè)研發(fā)團隊,這些骨干人員具有長期的大數(shù)據(jù)或工業(yè)領域研發(fā)經(jīng)驗和企業(yè)方案解決經(jīng)驗,積累和建立了很強的系統(tǒng)設計和開發(fā)能力,且具備很強的專業(yè)性和職業(yè)性,建立了較完善的研發(fā)環(huán)境。
核心技術
專注于語義理解、知識圖譜和深度學習的技術突破,通過累積海量的對話交互數(shù)據(jù),以知識圖譜為支撐,為保險公司打造國際領先的定制化 AI 解決方案。 —————————————————————————————————————————————————————————————————— 自然語言處理實習生: 崗位職責: 1、參與算法中臺的能力擴展和模型開發(fā); 2、參與 NLP 算法的優(yōu)化和落地; 3、對 SOTA 的算法進行調(diào)研和實現(xiàn); 4、結合實際產(chǎn)品提出新的解決方案。
崗位要求: 1、有 NLP 研究相關領域的經(jīng)驗,最好具有句法語義分析、信息提取、問答系統(tǒng)等相關知識; 2、有機器學習深度學習等實踐經(jīng)驗; 3、了解常用 NN 模型如:Fasttext,CNN,HAN,ELMo 等; 4、有較強的編程能力,熟練 python,熟悉 TensorFlow ; 5、對用技術解決實際問題有強烈興趣。 ——————————————————————————————————————————————————————————————————
簡歷投遞: [email?protected] ;提供轉(zhuǎn)正(算法工程師等)機會,歡迎相關專業(yè)的博士和優(yōu)秀碩士生。
自然語言處理架構師崗位職責: 1、負責車載智能語音助手語義產(chǎn)品的架構和算法整體設計工作 2、針對海量車載用戶產(chǎn)生的自然語言文本內(nèi)容,結合深度學習等前沿技術進行中文分詞、實體識別、情感分析、自動分類等各種文本挖掘的研發(fā)工作 3、負責智能車載語音助手的自然語義理解產(chǎn)品相關的算法開發(fā)、模型訓練和調(diào)參等工作 4、負責已有自然語言產(chǎn)品的召回率、準確率優(yōu)化,提高用戶體驗 任職要求: 1、碩士及以上學歷,計算機和數(shù)學等相關專業(yè) 2、精通 python/c++編程語言 3、熟悉常見的機器學習和自然語言處理算法,有智能語音助手語義理解研發(fā)經(jīng)驗優(yōu)先 4、有使用過 paddlepaddle、tensorflow、scikit-learn、gensim、word2vec 等軟件包者優(yōu)先 5、有離線 NLU 開發(fā)經(jīng)驗優(yōu)先; 6、良好的團隊合作和溝通能力,快速準確的理解能力,極強的自我驅(qū)動力,有一定的抗壓能力,有責任心,對解決問題充滿熱情。
就是能把接收到的自然語言處理為命令庫中對應的命令。 比如 “幫我搜一下 XXXX ” 和 “ XXXX 是什么意思” 處理為同一個命令,當然 “ XXXX ” 是作為命令的參數(shù)
BERT 系列:輔助任務解析
BERT 系列:數(shù)據(jù)預處理源碼解析
BERT 系列:ERNIE 中文訓練數(shù)據(jù)預處理
準備提供一個:中文分詞在線接口 API功能:中文分詞,初級的實體識別 費用:每日 3000 次以內(nèi)免費 原因:目前 JCJC 錯別字檢測服務器有 5 臺服務器,部分資源閑置。 調(diào)查內(nèi)容: 大家對:中文分詞在線服務,有那些期望呢? 謝謝大家
剛進入實驗室,老師布置了一個任務,就是對于一條中文短信內(nèi)容,判斷其是否屬于廣告類的短信。老師提示可以考慮使用樸素貝葉斯算法,分詞可以用庫,要求一周內(nèi)完成。 由于原來沒有接觸過自然語言處理,對此有點不知如何下手,只知道分詞,條件概率這些東西,看了網(wǎng)上一堆博客也有點懵,想請大家指點一下,這樣一個分類器的處理流程應該是怎樣的,分成一些什么步驟,萬分感謝。
目前使用了 php jieba 分詞,加載了自己的詞庫,14 萬行的詞庫,速度太慢。 有什么好的解決方法嗎?
比如衣服、褲子,再比如 3C、生鮮,我想到的有:用 gensim 計算相似;根據(jù)用戶對這兩個類目的共同行為來定義,比如都買過 /收藏、點擊兩個類目的東西,大家有什么好的建議嗎