HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
一次執(zhí)行 100個PHP進(jìn)程,為什么只有一部份在運(yùn)行,還有一些一直沒有動,我用strace -p PID 看到的都是類似這樣的: [user@server ~]$ sudo strace -p 29559 Process 29559 attached - interrupt to quit poll([{fd=7, events=POLLIN}], 1, 1000) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 0) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 1000) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 0) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 1000) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 0) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 1000) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 0) = 0 (Timeout) poll([{fd=7, events=POLLIN}], 1, 1000) = 0 (Timeout)
linux命令行下執(zhí)行的PHP是這樣的: php test.php 0,100 php test.php 100,100 php test.php 200,100 php test.php 300,100 php test.php 400,100 php test.php 500,100 php test.php 600,100 ....
這樣的批量運(yùn)行了有盡100個,test.php 里是用curl抓取網(wǎng)頁的;
php-fpm 我設(shè)置了超時時間為0 :
slowlog = log/$pool.log.slow request_slowlog_timeout = 3s request_terminate_timeout = 0 log.slow中沒有日志記錄
php文中里CURL函數(shù)部分: $ch = curl_init(); $user_agent1='Mozilla/5.0 (Windows NT 5.1; rv:6.0) Gecko/20100101 Firefox/6.0'; curl_setopt($ch, CURLOPT_URL, $url); curl_setopt($ch, CURLOPT_TIMEOUT, 0); curl_setopt($ch, CURLOPT_HEADER, false); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt($ch, CURLOPT_REFERER, $url); curl_setopt($ch, CURLOPT_USERAGENT, $user_agent1); curl_setopt($ch, CURLOPT_FOLLOWLOCATION,1); $content =curl_exec($ch); curl_close($ch);
來源:開源中國
發(fā)布時間:2013-03-10 01:07:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
就出現(xiàn)了上圖一個異常,不知道是什么原因,遇到過幾次了,還是解決不了
來源:開源中國
發(fā)布時間:2016-08-08 16:44:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@Gaussic 你好,想跟你請教個問題:在配置完成后,可以啟動像你一樣的界面了,不過我發(fā)現(xiàn),我再新建一個jsp文件,然后右鍵run的時候,它會重新啟動一次tomcat(之前的不會自動關(guān)閉),然后就報端口占用,關(guān)掉之前的tomcat運(yùn)行新的jsp頁面后會報404找不到,請問是什么造成的?
來源:開源中國
發(fā)布時間:2017-03-05 20:03:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
web.xml
taskmanage contextConfigLocation classpath:spring/spring-base.xml log4jConfigLocation /WEB-INF/log4j.properties log4jRefreshInterval 60000 org.springframework.web.context.ContextLoaderListener org.springframework.web.util.Log4jConfigListener springMVC org.springframework.web.servlet.DispatcherServlet contextConfigLocation classpath:spring/springmvc-servlet.xml 2 springMVC *.do encodingFilter org.springframework.web.filter.CharacterEncodingFilter encoding utf-8 forceEncoding true encodingFilter *.do encodingFilter *.html params com.ab.taskmanage.filter.ParamsFilter params /* t/toTest.do
spring-jdbc.xml
text/html;charset=UTF-8 application/json
WriteMapNullValue QuoteFieldNames WriteDateUseDateFormat
no black 5 2048000000 2048000 UTF-8
spring-servlet.xml
text/html;charset=UTF-8 application/json
WriteMapNullValue QuoteFieldNames WriteDateUseDateFormat
no black 5 2048000000 2048000 UTF-8
testcontroller package com.ab.taskmanage.controller; import com.ab.taskmanage.entity.TestUser; import com.ab.taskmanage.service.TestService; import com.ab.taskmanage.util.PageUtils; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Controller; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.ResponseBody; import java.util.List; /** * 測試 * Created by */ @Controller @RequestMapping("t") public class TestController { @Autowired private TestService testService; @RequestMapping("toTest") public String toTest(){ System.out.println("zzzzzz"); return "Test"; } }
啟動項目的時候會調(diào)用兩次toTest方法,求解。拜謝??!
來源:開源中國
發(fā)布時間:2017-03-24 10:03:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
No mapping found for HTTP request with URI [/MVCSpring/hool] in DispatcherServlet with name 'welcome'z
來源:開源中國
發(fā)布時間:2017-03-17 22:23:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
基本情況是這樣的:在同一個ip下2個數(shù)據(jù)庫; 典型的springmvc框架;
Controller層 調(diào)用一個xxxService.addMethod >> 方法里2個service: userService , shopService;
userService 操作的是 用戶庫> 新增用戶后,返回最新用戶id
shopSercie 操作是另一個庫(簡稱店鋪管理吧) ; 根據(jù)新增返回的的用戶id, 創(chuàng)建店鋪;
數(shù)據(jù)庫切換用spring托管;
user包下,會自動切換至用戶庫,操作完成后,釋放鏈接,改回默認(rèn)庫;
然后尷尬的問題的出現(xiàn)了;
xxxService.addMethod 中: userSerive確實(shí)成功切換數(shù)據(jù)庫,且操作數(shù)據(jù)庫(此時事務(wù)未提交,數(shù)據(jù)庫并未更新) 返回最新userId, shopService緊跟操作,拿著最新id操作 店鋪數(shù)據(jù)庫(不用切換,默認(rèn)該庫), 可以; 但AddMethod執(zhí)行完畢,提示: 店鋪數(shù)據(jù)庫.user插入失敗;
店鋪數(shù)據(jù)庫下是無user表的;
初步懷疑,xxxService.AddMethod完畢后,事務(wù)提交,但此時,持有的鏈接是默認(rèn)庫鏈接,導(dǎo)致插入失敗; 這是事務(wù)的問題; 如果不用事務(wù),那么我該這么保持它們的一致性呢;
來源:開源中國
發(fā)布時間:2017-03-22 14:46:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
使用 spring mvc,后臺需要的參數(shù)是 long 類型的,當(dāng)前臺傳遞參數(shù)過來(比如:5),這時spring mvc 不能把類型轉(zhuǎn)換為 long ,前臺報 400 錯誤。需要怎樣才能轉(zhuǎn)換成功呢?
來源:開源中國
發(fā)布時間:2017-03-22 10:40:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
在前端界面設(shè)置一個按鈕,這個按鈕不是form表單的內(nèi)容,但是要請求后臺,不使用ajax,使用location.href,可以嘛?
來源:開源中國
發(fā)布時間:2017-03-22 12:43:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
使用 springmvc 表單標(biāo)簽時報 No WebApplicationContext found: no ContextLoaderListener registered? 而在其他情況下不報?
我的 jar 包:
來源:開源中國
發(fā)布時間:2016-08-11 10:27:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
有人使用AbstractAnnotationConfigDispatcherServletInitializer 搭建spring 嗎 ?為什么我使用無效
按照Spring實(shí)戰(zhàn)第四版寫的
控制臺表示沒有WebApplicationInitializer 被找到
來源:開源中國
發(fā)布時間:2017-02-14 21:27:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
springmvc+spring+mybatis 開發(fā)的項目跑在tomcat7上(windows server 2008),運(yùn)行一段時間后出現(xiàn)動態(tài)資源無法訪問的情況,不知道什么原因,請求各位大神幫忙看下(項目使用到mysql5.7,redis3.2,都是安裝在同一臺服務(wù)器,服務(wù)器內(nèi)存為4G)
203.87.129.156 - - [08/Jan/2017:11:32:33 +0800] "GET / HTTP/1.1" 404 5
112.198.71.124 - - [08/Jan/2017:11:32:33 +0800] "GET / HTTP/1.1" 404 5
41.215.169.4 - - [08/Jan/2017:11:32:33 +0800] "GET /upload/app/20161110111635118543.apk.jpg HTTP/1.1" 200 1453960
112.215.170.76 - - [08/Jan/2017:11:32:33 +0800] "GET /upload/20161221174745016516.jpg HTTP/1.1" 200 164981
118.69.120.229 - - [08/Jan/2017:11:32:33 +0800] "GET / HTTP/1.1" 404 5
112.206.99.182 - - [08/Jan/2017:11:32:33 +0800] "GET / HTTP/1.1" 404 5
113.175.155.40 - - [08/Jan/2017:11:32:33 +0800] "POST /sdk/advCtrl HTTP/1.1" 200 290
112.198.90.221 - - [08/Jan/2017:11:32:33 +0800] "GET /upload/20170101204552602131.jpg HTTP/1.1" 200 20163
來源:開源中國
發(fā)布時間:2017-01-09 10:44:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:我是將jar引入myeclipse使用的.也引入了lex-main.lex,目前10以上的中文數(shù)字都可以直接轉(zhuǎn)換成阿拉伯?dāng)?shù)字,但是10以內(nèi)的不會自動轉(zhuǎn),請問該用什么方式實(shí)現(xiàn)呢
來源:開源中國
發(fā)布時間:2016-11-03 13:47:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
本文轉(zhuǎn)自: http://www.hansight.com/blog-lucene4.10-with-chinese-segment.html
感謝原作者。
比較目的
衡量每種分詞的指標(biāo),內(nèi)存消耗、CPU消耗,得到一個在Lucene中比較好的分詞版本。
分詞源代碼介紹 paoding: 庖丁解牛最新版在 https://code.google.com/p/paoding/ 中最多支持Lucene 3.0,且最新提交的代碼在 2008-06-03,在svn中最新也是2010年提交,已經(jīng)過時,不予考慮。 mmseg4j:最新版已從 https://code.google.com/p/mmseg4j/ 移至 https://github.com/chenlb/mmseg4j-solr ,支持Lucene 4.10,且在github中最新提交代碼是2014年6月,從09年~14年一共有:18個版本,也就是一年幾乎有3個大小版本,有較大的活躍度,用了mmseg算法。 IK-analyzer: 最新版在https://code.google.com/p/ik-analyzer/上,支持Lucene 4.10從2006年12月推出1.0版開始, IKAnalyzer已經(jīng)推出了4個大版本。最初,它是以開源項目Luence為應(yīng)用主體的,結(jié)合詞典分詞和文法分析算法的中文分詞組件。從3.0版本開 始,IK發(fā)展為面向Java的公用分詞組件,獨(dú)立于Lucene項目,同時提供了對Lucene的默認(rèn)優(yōu)化實(shí)現(xiàn)。在2012版本中,IK實(shí)現(xiàn)了簡單的分詞 歧義排除算法,標(biāo)志著IK分詞器從單純的詞典分詞向模擬語義分詞衍化。 但是也就是2012年12月后沒有在更新。 ansj_seg:最新版本在 https://github.com/NLPchina/ansj_seg tags僅有1.1版本,從2012年到2014年更新了大小6次,但是作者本人在2014年10月10日說明:“可能我以后沒有精力來維護(hù)ansj_seg了”,現(xiàn)在由”nlp_china”管理。2014年11月有更新。并未說明是否支持Lucene,是一個由CRF(條件隨機(jī)場)算法所做的分詞算法。 imdict-chinese-analyzer:最新版在 https://code.google.com/p/imdict-chinese-analyzer/ , 最新更新也在2009年5月,下載源碼,不支持Lucene 4.10 。是利用HMM(隱馬爾科夫鏈)算法。 Jcseg:最新版本在 http://git.oschina.net/lionsoul/jcseg ,支持Lucene 4.10,作者有較高的活躍度。利用mmseg算法。
測試環(huán)境:
Ubuntu 14.04 64位, 內(nèi)存 32GB, CPU Intel? Core? i7-4770K CPU @ 3.50GHz × 8
分詞算法衡量指標(biāo)及測試代碼 黃金標(biāo)準(zhǔn)/Golden standard
評價一個分詞器分詞結(jié)果的好壞,必然要有一份“公認(rèn)正確”的分詞結(jié)果數(shù)據(jù)來作為參照。 SIGHAN(國際計算語言學(xué)會(ACL)中文語言處理小組)舉辦的國際中文語言處理競賽Second International Chinese Word Segmentation Bakeoff(http://sighan.cs.uchicago.edu/bakeoff2005/)所提供的公開數(shù)據(jù)來評測,它包含了多個測試集以及對應(yīng)的黃金標(biāo)準(zhǔn)分詞結(jié)果。在所有分詞器都使用同一標(biāo)準(zhǔn)來評測的情況下,也就會很公平,并不會影響到最終的結(jié)論,所以本文用此測評標(biāo)準(zhǔn),并針對創(chuàng)建索引,做了些改動。 評價指標(biāo)精度(Precision):精度表明了分詞器分詞的準(zhǔn)確程度。 召回率(Recall):召回率也可認(rèn)為是“查全率”。 F值(F-mesure):F值綜合反映整體的指標(biāo)。 錯誤率(Error Rate --ER)(帶選項):分詞器分詞的錯誤程度。 公式
Tip公式參數(shù)說明
N:黃金標(biāo)準(zhǔn)分割的單詞數(shù); e:分詞器錯誤標(biāo)注的單詞數(shù); c:分詞器正確標(biāo)注的單詞數(shù).
總結(jié):P、R、F越大越好,ER越小越好。一個完美的分詞器的P、R、F值均為1,ER值為0。
正確及錯誤標(biāo)注的計數(shù)算法
要先計算出e和c,才能計算出各指標(biāo)值。e和c是按如下算法來統(tǒng)計的: 在“黃金標(biāo)準(zhǔn)”和“待評測的結(jié)果”中,理論上,除了分詞后添加的空格之外,它們所有的文字都是相同的;唯一的不同就在于那些有差異的分詞結(jié)果的位置上。例如,“計算機(jī) 是個 好東西”(黃金標(biāo)準(zhǔn))與“計算機(jī) 是 個 好東西”(待評測的結(jié)果)的差異就在于“是個”與“是 個”的差異,其余分詞結(jié)果都是相同的。因此,只需要找到這種差異的個數(shù),就可以統(tǒng)計出分詞器正確標(biāo)注了多少個詞、錯誤標(biāo)注了多少個詞。為了完成測試指標(biāo),同時,對應(yīng)Lucene的檢索實(shí)際需要對黃金標(biāo)準(zhǔn)的 *_test_gold和分詞結(jié)果做了如下改動: 去掉標(biāo)點(diǎn)符號 統(tǒng)一對一些虛詞作停詞處理 沒有分開句子,結(jié)果都是一個比較集。
統(tǒng)一的perl處理代碼
#!/usr/bin/perl if (@ARGV != 2) { print "No param which will be read!"; exit; } open (FpStopDir, $ARGV[0]) or die "The stopping dictionary($ARGV[0]) cannot open!$!\n"; %dict = (); while(){ chop; s/^\s*//;#remove start space char s/\s*$//;#remove the space char in the end of string $dict{$_} = 1; } close(FpStopDir); open(FpDeal, $ARGV[1]) or die "The file ($ARGV[1]) which will be dealed cannot open! $!\n"; my@DealedWord; while (){ @Word = split /\s+/, $_; foreach $AWord(@Word){ if(1 != $dict{$AWord}){ print "$AWord "; } } } close(FpDeal);
Java測試代碼package com.hansight; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.cjk.CJKAnalyzer; import org.apache.lucene.analysis.core.SimpleAnalyzer; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; import org.lionsoul.jcseg.analyzer.JcsegAnalyzer4X; import org.lionsoul.jcseg.core.*; import org.wltea.analyzer.lucene.IKAnalyzer; import com.chenlb.mmseg4j.analysis.ComplexAnalyzer; import java.io.*; public class TestChineseAnalyzer { private static int PER_TIME_READ_LEN = 1024; //每次讀入文件流長度 private TestChineseAnalyzer() {} public static void printTerms(Analyzer analyzer, String content){ try{ TokenStream ts = analyzer.tokenStream("content", new StringReader(content)); CharTermAttribute term = ts.addAttribute(CharTermAttribute.class); ts.reset(); StringBuffer buf = new StringBuffer(); while (ts.incrementToken()) { buf.append(term.toString()); buf.append(" "); } System.out.println(buf.toString()); System.out.println(analyzer.getClass().getName() + " done\n"); }catch (IOException ex){ System.out.println("Segment word fail. " + ex.getMessage()); } } public static void main(String[] args){ if (0 == args.length){ System.err.println("No Inputing param"); System.exit(1); } try { FileInputStream in = new FileInputStream(new File(args[0])); byte[] perRead = new byte[PER_TIME_READ_LEN]; String strContent = " "; int rst = in.read(perRead, 0, PER_TIME_READ_LEN); while (-1 != rst){ strContent = strContent.concat(new String(perRead)); rst = in.read(perRead, 0, PER_TIME_READ_LEN); } printTerms(new JcsegAnalyzer4X(JcsegTaskConfig.COMPLEX_MODE), strContent); printTerms(new IKAnalyzer(true), strContent); printTerms(new CJKAnalyzer(), strContent); printTerms(new SimpleAnalyzer(), strContent); printTerms(new StandardAnalyzer(), strContent); printTerms(new ComplexAnalyzer(), strContent); } catch (Exception ex) { ex.printStackTrace(); } } }
運(yùn)行Java通過重定向到一個txt文件,再將彼此分開,如上所示,沒有看過Lucene本身的分詞的爛,所以自己也查看了一下,果然很爛。 通過對結(jié)果的處理(用上面的Perl腳本,統(tǒng)一對標(biāo)準(zhǔn)和對結(jié)果的處理)。再利用 黃金標(biāo)準(zhǔn)中的Perl評分腳本。
Note此結(jié)果并沒有按照黃金標(biāo)準(zhǔn)正確用法來用(主要沒有用黃金標(biāo)準(zhǔn)來訓(xùn)練,且評分本身是一句一句的評分,最后是綜合得分。 而本文是所有內(nèi)容一起評分,會有一定誤差)。同時:現(xiàn)在的分詞,比較而言更加智能,能將數(shù)量詞等(一位,同志們)分在一起,是以前可能沒能想過的。 雖然,有諸多誤差,但是本文只是比較相對值,只要在統(tǒng)一的相對正確的標(biāo)準(zhǔn)下也就能達(dá)到效果了。
分詞算法內(nèi)存和cup測試
在一個大的語料庫中,所有文檔加入Lucene索引的時間,測試內(nèi)存使用情況,就將索引建立在磁盤中; 若是測試CPU使用情況,就將所以建立的內(nèi)存中減小IO讀寫對CPU的影響。利用VisualVM查看CPU利用率、內(nèi)存利用率,得到他們的時間序列圖。 Java程序如下package com.hansight; import org.apache.lucene.store.RAMDirectory; import org.lionsoul.jcseg.analyzer.JcsegAnalyzer4X; import com.chenlb.mmseg4j.analysis.ComplexAnalyzer; import org.apache.lucene.document.*; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.index.IndexWriterConfig; import org.apache.lucene.index.Term; import org.apache.lucene.store.Directory; import org.apache.lucene.store.FSDirectory; import org.apache.lucene.util.Version; import org.lionsoul.jcseg.core.JcsegTaskConfig; import org.wltea.analyzer.lucene.IKAnalyzer; import java.io.*; import java.nio.charset.StandardCharsets; public class FileIndexTest { private FileIndexTest() {} private IndexWriterConfig conf = null; public FileIndexTest(IndexWriterConfig conf) { this.conf = conf; } public void indexFilesInDir(String docsPath, String indexPath, boolean createIfNotExists){ final File docDir = new File(docsPath); if (!docDir.exists() || !docDir.canRead()) { System.out.println("Document directory '" +docDir.getAbsolutePath()+ "' does not exist or is not readable, please check the path"); System.exit(1); } long start = System.currentTimeMillis(); try { System.out.println("Indexing into directory '" + indexPath + "'..."); Directory dir = null != indexPath ? FSDirectory.open(new File(indexPath)): new RAMDirectory(); if (createIfNotExists) { conf.setOpenMode(IndexWriterConfig.OpenMode.CREATE); } else { conf.setOpenMode(IndexWriterConfig.OpenMode.CREATE_OR_APPEND); } IndexWriter writer = new IndexWriter(dir, conf); indexDocs(writer, docDir); writer.close(); System.out.println(System.currentTimeMillis() - start + " total milliseconds"); } catch (IOException ex) { ex.printStackTrace(); } } public static void indexDocs(IndexWriter writer, File file) throws IOException { if (file.canRead()) { if (file.isDirectory()) { String[] files = file.list(); if (files != null) { for (int i = 0; i < files.length; i++) { indexDocs(writer, new File(file, files[i])); } } } else { FileInputStream fis; try { fis = new FileInputStream(file); } catch (FileNotFoundException fnfe) { return; } try { Document doc = new Document(); Field pathField = new StringField("path", file.getPath(), Field.Store.YES); doc.add(pathField); doc.add(new LongField("modified", file.lastModified(), Field.Store.NO)); doc.add(new TextField("contents", new BufferedReader(new InputStreamReader(fis, StandardCharsets.UTF_8)))); if (writer.getConfig().getOpenMode() == IndexWriterConfig.OpenMode.CREATE) { // New index, so we just add the document (no old document can be there): System.out.println("adding " + file); writer.addDocument(doc); } else { System.out.println("updating " + file); writer.updateDocument(new Term("path", file.getPath()), doc); } } finally { fis.close(); } } } } public static void main(String[] args) { String usage = "java org.apache.lucene.demo.IndexFiles" + " [-index INDEX_PATH] [-docs DOCS_PATH] [-update]\n\n" + "This indexes the documents in DOCS_PATH, creating a Lucene index" + "in INDEX_PATH that can be searched with SearchFiles"; String indexPath = null; String docsPath = null; boolean create = true; for (int i = 0; i < args.length; i++) { if ("-index".equals(args[i])) { indexPath = args[i + 1]; i++; } else if ("-docs".equals(args[i])) { docsPath = args[i + 1]; i++; } else if ("-update".equals(args[i])) { create = false; } } if (docsPath == null) { System.err.println("Usage: " + usage); System.exit(1); } /*IKAnalyzer*/ FileIndexTest test = new FileIndexTest(new IndexWriterConfig(Version.LUCENE_4_10_2, new IKAnalyzer())); test.indexFilesInDir(docsPath, indexPath, create); /*Jcseg*/ FileIndexTest test1 = new FileIndexTest(new IndexWriterConfig(Version.LUCENE_4_10_2, new JcsegAnalyzer4X(JcsegTaskConfig.COMPLEX_MODE))); test1.indexFilesInDir(docsPath, indexPath, create); /*mmseg*/ FileIndexTest test2 = new FileIndexTest(new IndexWriterConfig(Version.LUCENE_4_10_2, new ComplexAnalyzer())); test2.indexFilesInDir(docsPath, indexPath, create); } }
如上所示:IK-analyzer、Jcseg、mmseg4j都是用統(tǒng)一接口,測試,就將其他兩個給注釋掉。 同時:當(dāng)測試內(nèi)存消耗量時, 我們需要將索引建立在磁盤中測試jar包的命令例子如下: java -jar indexFile.jar -docs ~/resource/ -index ~/index/
當(dāng)測試CPU消耗時,我們盡量減小IO的消耗,那么可以將索引建立在內(nèi)存中,測試jar包的命令例子如下: java -jar indexFile.jar -docs ~/resource/s
得到如下面所有圖所示的結(jié)果:
Figure 1. IK-Analyzer分詞消耗內(nèi)存
Figure 2. Jcseg分詞消耗內(nèi)存
Figure 3. mmseg4j分詞消耗內(nèi)存
Figure 4. IK-Analyzer分詞CPU使用率
Figure 5. Jcseg分詞CPU使用率
Figure 6. mmseg4j分詞CPU使用率
從幾個指標(biāo)對比來看:IK-analyzer的準(zhǔn)確度稍差,Jcseg的時間消耗稍差
時間消耗上:在索引創(chuàng)建1,003,057 items, totalling 2.8 GB的文件: 將其索引放入磁盤 Jcseg + Lucene建索引消耗: 516971 total milliseconds mmseg4j + Lucene建索引消耗: 256805 total milliseconds IK-Analyzer + Lucene建索引消耗: 445591 total milliseconds Standard + Lucene建索引消耗: 184717 total milliseconds 內(nèi)存消耗最大不過650M多 CPU消耗減小不大 (磁盤數(shù)據(jù)僅僅增加0.2G~0.3G左右) 將索引放在內(nèi)存中 Jcseg + Lucene 建索引消耗: 510146 total milliseconds mmseg4j + Lucene建索引消耗: 262682 total milliseconds IK-Analyzer + Lucene建索引消耗: 436900 total milliseconds Standard + Lucene建索引消耗: 183271 total milliseconds CUP的高峰值頻率明顯增多
綜上所有因素: 準(zhǔn)確率為:Jcseg > mmseg4j > IK-Analyzer。 內(nèi)存消耗和CPU使用率上,幾個都在一個數(shù)量級上,很難分出勝負(fù)。 但是在時間消耗上明顯mmseg4j的優(yōu)勢非常突出。 從活躍度來看,mmseg4j的活躍度也是非??上驳?。
來源:開源中國
發(fā)布時間:2015-01-18 14:47:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:我在索引庫添加了拼音庫的后,然后搜索,開啟高亮?xí)r,就報
ERROR - 2016-03-10 13:42:59.185; org.apache.solr.common.SolrException; null:org.apache.solr.common.SolrException: org.apache.lucene.search.highlight.InvalidTokenOffsetsException: Token menchuang exceeds length of provided text sized 8
at org.apache.solr.highlight.DefaultSolrHighlighter.doHighlightingByHighlighter(DefaultSolrHighlighter.java:542)
at org.apache.solr.highlight.DefaultSolrHighlighter.doHighlighting(DefaultSolrHighlighter.java:414)
at org.apache.solr.handler.component.HighlightComponent.process(HighlightComponent.java:139)
at org.apache.solr.handler.component.SearchHandler.handleRequestBody(SearchHandler.java:217)
at org.apache.solr.handler.RequestHandlerBase.handleRequest(RequestHandlerBase.java:135)
at org.apache.solr.core.SolrCore.execute(SolrCore.java:1916)
at org.apache.solr.servlet.SolrDispatchFilter.execute(SolrDispatchFilter.java:768)
at org.apache.solr.servlet.SolrDispatchFilter.doFilter(SolrDispatchFilter.java:415)
at org.apache.solr.servlet.SolrDispatchFilter.doFilter(SolrDispatchFilter.java:205)
at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1419)
at org.eclipse.jetty.servlet.ServletHandler.doHandle(ServletHandler.java:455)
at org.eclipse.jetty.server.handler.ScopedHandler.handle(ScopedHandler.java:137)
at org.eclipse.jetty.security.SecurityHandler.handle(SecurityHandler.java:557)
at org.eclipse.jetty.server.session.SessionHandler.doHandle(SessionHandler.java:231)
at org.eclipse.jetty.server.handler.ContextHandler.doHandle(ContextHandler.java:1075)
at org.eclipse.jetty.servlet.ServletHandler.doScope(ServletHandler.java:384)
at org.eclipse.jetty.server.session.SessionHandler.doScope(SessionHandler.java:193)
at org.eclipse.jetty.server.handler.ContextHandler.doScope(ContextHandler.java:1009)
at org.eclipse.jetty.server.handler.ScopedHandler.handle(ScopedHandler.java:135)
at org.eclipse.jetty.server.handler.ContextHandlerCollection.handle(ContextHandlerCollection.java:255)
at org.eclipse.jetty.server.handler.HandlerCollection.handle(HandlerCollection.java:154)
at org.eclipse.jetty.server.handler.HandlerWrapper.handle(HandlerWrapper.java:116)
at org.eclipse.jetty.server.Server.handle(Server.java:368)
at org.eclipse.jetty.server.AbstractHttpConnection.handleRequest(AbstractHttpConnection.java:489)
at org.eclipse.jetty.server.BlockingHttpConnection.handleRequest(BlockingHttpConnection.java:53)
at org.eclipse.jetty.server.AbstractHttpConnection.headerComplete(AbstractHttpConnection.java:942)
at org.eclipse.jetty.server.AbstractHttpConnection$RequestHandler.headerComplete(AbstractHttpConnection.java:1004)
at org.eclipse.jetty.http.HttpParser.parseNext(HttpParser.java:640)
at org.eclipse.jetty.http.HttpParser.parseAvailable(HttpParser.java:235)
at org.eclipse.jetty.server.BlockingHttpConnection.handle(BlockingHttpConnection.java:72)
at org.eclipse.jetty.server.bio.SocketConnector$ConnectorEndPoint.run(SocketConnector.java:264)
at org.eclipse.jetty.util.thread.QueuedThreadPool.runJob(QueuedThreadPool.java:608)
at org.eclipse.jetty.util.thread.QueuedThreadPool$3.run(QueuedThreadPool.java:543)
at java.lang.Thread.run(Thread.java:744)
Caused by: org.apache.lucene.search.highlight.InvalidTokenOffsetsException: Token menchuang exceeds length of provided text sized 8
at org.apache.lucene.search.highlight.Highlighter.getBestTextFragments(Highlighter.java:225)
at org.apache.solr.highlight.DefaultSolrHighlighter.doHighlightingByHighlighter(DefaultSolrHighlighter.java:527)
... 33 more
如果我在索引庫里面去掉拼音,,又可以正常使用solr的功能
來源:開源中國
發(fā)布時間:2016-03-10 14:01:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:您好,我用了您的分詞器,我想知道您分出的詞的詞性標(biāo)注是什么意思呢?對照了一些詞性標(biāo)注表都無法正確識別詞性。。。麻煩您了
來源:開源中國
發(fā)布時間:2015-12-04 20:11:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:我用的jcseg1.9.2版本,最后lucene highlight高亮?xí)r報錯: rg.apache.lucene.search.highlight.InvalidTokenOffsetsException: Token ev exceed s length of provided text sized 22 at org.apache.lucene.search.highlight.Highlighter.getBestTextFragments(H ighlighter. java:225 ) 網(wǎng)上看是mmseg的老問題,也看到你在oschina上之前回帖說,類似這個問題已經(jīng)修復(fù)了。
我需要用最新版1.9.6嗎?
來源:開源中國
發(fā)布時間:2015-06-02 21:41:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:
我現(xiàn)在想在jcseg基礎(chǔ)上,加一個最多分詞的功能,比如我想對“軟件運(yùn)行環(huán)境”進(jìn)行分詞,想要得到的結(jié)果類似這樣的“軟件、運(yùn)行、軟件運(yùn)行、環(huán)境、運(yùn)行環(huán)境”,現(xiàn)在的jcseg好像還不支持此功能。
我想自己嘗試下,實(shí)現(xiàn)此功能,但是又沒什么好的思路……
能給我提供一個好的思路嗎,謝謝了哈。
來源:開源中國
發(fā)布時間:2015-08-11 09:31:00
經(jīng)常坐高鐵出差,購票后如何快捷顯示坐次時間座位等信息,不用再點(diǎn)開 12306app
來源:V2EX
發(fā)布時間:2020-08-27 15:25:16
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
最近收到不少網(wǎng)友的郵件詢問jcseg和solr的集成, jcseg和solr的集成過程中報如下類似錯誤:
Caused by: org.apache.solr.common.SolrException: Plugin init failure for [schema.xml] analyzer/tokenizer: Error instantiating class: 'com.webssky.jcseg.solr.JcsegTokenizerFactory'
at org.apache.solr.util.plugin.AbstractPluginLoader.load(AbstractPluginLoader.java:177)
at org.apache.solr.schema.FieldTypePluginLoader.readAnalyzer(FieldTypePluginLoader.java:344)
at org.apache.solr.schema.FieldTypePluginLoader.create(FieldTypePluginLoader.java:95)
at org.apache.solr.schema.FieldTypePluginLoader.create(FieldTypePluginLoader.java:43)
at org.apache.solr.util.plugin.AbstractPluginLoader.load(AbstractPluginLoader.java:151)
... 14 more
Caused by: org.apache.solr.common.SolrException: Error instantiating class: 'com.webssky.jcseg.solr.JcsegTokenizerFactory'
at org.apache.solr.core.SolrResourceLoader.newInstance(SolrResourceLoader.java:471)
at org.apache.solr.util.plugin.AbstractPluginLoader.create(AbstractPluginLoader.java:89)
at org.apache.solr.util.plugin.AbstractPluginLoader.load(AbstractPluginLoader.java:151)
... 18 more
Caused by: java.lang.InstantiationException: com.webssky.jcseg.solr.JcsegTokenizerFactory
at java.lang.Class.newInstance0(Class.java:340)
at java.lang.Class.newInstance(Class.java:308)
at org.apache.solr.core.SolrResourceLoader.newInstance(SolrResourceLoader.java:468)
... 20 more
這里給出錯誤原因和解決辦法:
1. 確保你的jcseg配置正確, 這個jcseg開發(fā)幫助文檔中有詳細(xì)的說明. 另外網(wǎng)絡(luò)上有一篇博文詳細(xì)的說明了jcseg和solr的結(jié)合配置: http://ghostsinthelab.org/3170/jcseg-1-8-8-solr-4-3-1/
2. 升級solr到最近版本, 最好是4.3以上的版本: jcseg內(nèi)部jar文件是用solr-4.3.6編譯的.
3. 確保scheme.xml配置如下: (注意不要將開發(fā)幫助文檔中的注釋復(fù)制進(jìn)去了)
簡易模式:
復(fù)雜模式:
Happy jcseg !
來源:開源中國
發(fā)布時間:2013-09-25 21:00:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:
jcseg分詞算法具體在哪個文件下了?如果我想對“中華人民”做分詞,想要得到的結(jié)果是“中華,華人,人民,中華人民”??墒?,現(xiàn)在詞庫里這些詞都有,它卻分出的是“中華,人民”只要前面的詞被占有,它就不去詞庫里查找。求解答,謝謝!
來源:開源中國
發(fā)布時間:2015-06-06 19:07:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 醫(yī)管局/nt/yi guan ju/醫(yī)療管理部門,醫(yī)療管理部,醫(yī)療管理局醫(yī)療管理部/nt/yi liao guan li bu/醫(yī)療管理部門,醫(yī)管局
醫(yī)療管理部門/nt/yi liao guan li bu men/醫(yī)管局,醫(yī)療管理部
詞/詞性/拼音/連接
拼音主要是干什么的?
來源:開源中國
發(fā)布時間:2015-06-16 11:40:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:
我在使用DETECT_MODE模式分詞時,發(fā)現(xiàn)一個很嚴(yán)重的錯誤,分詞后詞的offset不對,term的startOffset始終為0,如下圖所示。
這種錯誤會導(dǎo)致FastVectorHighlighter無法正常高亮。
另外還有一個問題,如何在索引過程中動態(tài)的添加詞庫。如有兩個待索引的文本doc1,doc2,兩個文本按照某種規(guī)則(可以是正則)分別提取到詞匯word1,word2(jcseg詞庫中均不包含該詞)要求:在對doc1進(jìn)行索引時,對文中出現(xiàn)的word1不進(jìn)行分詞(相當(dāng)于將“word1”當(dāng)作jcseg中的“CJK_WORDS ”詞庫,但不將其添加進(jìn)詞庫文件中,而是添加至Dictionary.dics中),對doc2進(jìn)行索引時,同樣對word2不進(jìn)行分詞,但是對doc2中出現(xiàn)的word1進(jìn)行分詞, 請問有沒有好的實(shí)現(xiàn)辦法?
來源:開源中國
發(fā)布時間:2015-05-21 10:43:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@獅子的魂 你好,想跟你請教個問題:我在使用jcseg進(jìn)行分詞中,發(fā)現(xiàn)lex會出現(xiàn)很多重復(fù)的詞。這些重復(fù)的詞會不會影響分詞速度?有什么好的解決辦法嗎?
來源:開源中國
發(fā)布時間:2015-05-30 15:28:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
Jenkins在構(gòu)建時cmake build 時好慢好慢,有時候能編譯四五十分鐘,有什么方法優(yōu)化下嗎
來源:開源中國
發(fā)布時間:2019-01-24 11:38:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> include(ExternalProject)ExternalProject_Add(libuv #URL http://libuv.org/dist/v0.10.27/libuv-v0.10.27.tar.gz #SOURCE_DIR ${PROJECT_SOURCE_DIR}/third/libuv SOURCE_DIR /home/action/workspace/cmake/2/third/libuv BUILD_COMMAND ${MAKE} BUILD_IN_SOURCE 1
)
具體的內(nèi)容是這樣,然后每次運(yùn)行的結(jié)果都報錯:
[ 10%] Performing configure step for 'libuv'
CMake Error: The source directory "/home/action/workspace/cmake/2/third/libuv" does not appear to contain CMakeLists.txt.
Specify --help for usage, or press the help button on the CMake GUI.
make[2]: *** [libuv-prefix/src/libuv-stamp/libuv-configure] Error 1
make[1]: *** [CMakeFiles/libuv.dir/all] Error 2
make: *** [all] Error 2
每次都是提示這個,難道不支持沒有 CMakeLists.txt的項目么,我從stackoverflow搜索到ExternalProject_Add的相關(guān)例子,全都是這樣的。不管是相對路徑,還是絕對路徑,全是這樣,,,已經(jīng)崩潰了
來源:開源中國
發(fā)布時間:2014-06-06 17:24:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
錯誤提示:
我改版本,怎樣都不行。
現(xiàn)在的boost版本boost_1_63_0,cmake版本3.7.-0
來源:開源中國
發(fā)布時間:2018-01-25 00:02:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@派卡琪安 你好,想跟你請教個問題:
我這里安裝MYSQL-5.5.22時報錯!
錯誤如下:
root@dreamStartSystem usr]# cd mysql-5.5.22
[root@dreamStartSystem mysql-5.5.22]# cmake
CMake Error: Could not find CMAKE_ROOT !!!
CMake has most likely not been installed correctly.
Modules directory not found in
/usr/local/bin
段錯誤 (core dumped)
是什么原因呢?
來源:開源中國
發(fā)布時間:2012-10-03 12:17:08
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
我源碼編譯了gcc-4.8.1安裝路徑在/usr/local/gcc,PATH路徑也添加了
PATH=/usr/local/gcc-4.8.1/bin:$PATH,但是當(dāng)我室友cmake進(jìn)行編譯的時候,
他總是會使用以前舊的版本,我就像知道為什么這樣?我有什么辦法讓他使用以前的gcc版本嗎?
來源:開源中國
發(fā)布時間:2017-10-22 21:00:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
比如我有一個工程, 需要用到第三方庫,第三方庫是已經(jīng)編譯好的, 有Debug版本和Release版本,現(xiàn)在用CMake生成工程后, 如果編譯Debug版本的則配置鏈接到Debug版本的第三方庫, Release也類似.CMakeLists.txt文件中應(yīng)該怎么判斷?
由于用的是VS2013, 所以不能用命令cmake -DCMAKE_BUILD_TYPE=Debug . 這種方法來編譯.而且CMake默認(rèn)就支持了Debug, Release, RelWithDebInfo, MinSizeRel這幾個版本, 如果使用默認(rèn)的話 CMAKE_BUILD_TYPE是為空的.
求指教啊!!!
來源:開源中國
發(fā)布時間:2016-08-10 09:57:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> cmake . -- Running cmake version 2.8.10.2 -- Could NOT find Git (missing: GIT_EXECUTABLE) -- Configuring with MAX_INDEXES = 64U -- Looking for SHM_HUGETLB -- Looking for SHM_HUGETLB - found -- Looking for sys/types.h -- Looking for sys/types.h - found -- Looking for stdint.h -- Looking for stdint.h - found -- Looking for stddef.h -- Looking for stddef.h - found -- Check size of void * -- Check size of void * - done -- SIZEOF_VOIDP 8 -- MySQL 5.7.9 -- Packaging as: mysql-5.7.9-Linux-x86_64 -- Looked for boost/version.hpp in and -- BOOST_INCLUDE_DIR BOOST_INCLUDE_DIR-NOTFOUND -- LOCAL_BOOST_DIR -- LOCAL_BOOST_ZIP -- Could not find (the correct version of) boost. -- MySQL currently requires boost_1_59_0 CMake Error at cmake/boost.cmake:76 (MESSAGE): You can download it with -DDOWNLOAD_BOOST=1 -DWITH_BOOST= This CMake script will look for boost in . If it is not there, it will download and unpack it (in that directory) for you. If you are inside a firewall, you may need to use an http proxy: export http_proxy=http://example.com:80 Call Stack (most recent call first): cmake/boost.cmake:228 (COULD_NOT_FIND_BOOST) CMakeLists.txt:435 (INCLUDE) -- Configuring incomplete, errors occurred!
來源:開源中國
發(fā)布時間:2016-01-14 16:36:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
最近在Windows下用CMake編譯源代碼,結(jié)果一直顯示如下錯誤:
我查看了CMakeLists.txt里面的代碼,發(fā)現(xiàn)了一個有趣的問題:
該文件里有一個變量ENERGYPLUS_EXPECTED_HASH,被賦值為上述提示中的expected hash值,而下載的壓縮包每次的hash值都不同,這樣怎么能讓兩者的值匹配呢?
求前輩們指點(diǎn)一二,我已經(jīng)折騰了好長時間了,謝謝!
來源:開源中國
發(fā)布時間:2015-10-24 15:41:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
在ubuntu里面用cmake編譯一個第三方的密碼庫的時候出現(xiàn)如下錯誤:
CMake Error at src/CMakeLists.txt:9 (string):
string no output variable specified
求解答!
來源:開源中國
發(fā)布時間:2015-09-11 14:45:00
其他改動和 bug 我也就忍了,輸入法消失是認(rèn)真的?怎么調(diào)都調(diào)不出來,總不能一天重啟 4 遍手機(jī)吧
小米的測試都轉(zhuǎn)行做水軍去了嗎
機(jī)型: K20p
來源:V2EX
發(fā)布時間:2020-08-27 15:22:54
1688 阿里巴巴在電腦上面點(diǎn)擊和商家聊天瀏覽器會提示打開阿里旺旺,然而聊天記錄會同步到手機(jī)淘寶 APP 聊天列表里面去。在手機(jī)上面用 1688 阿里巴巴 APP 和商家聊天,回到電腦阿里旺旺上面卻沒有同步聊天記錄。 現(xiàn)在遇到的情況是 1688 阿里巴巴 APP 商家給我發(fā)了一個文檔,我卻無法在電腦阿里旺旺上面找到和商家的聊天。 1688 阿里巴巴 APP:9.0.1 手機(jī)淘寶 APP:9.9.0 ( Build 20000933 ) 電腦阿里旺旺:9.12.10C
來源:V2EX
發(fā)布時間:2020-08-27 15:22:48
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
下載了CMake 3.3.1,已安裝,和OpenCV2.4.11配置的時候出現(xiàn)錯誤,被迫終止。VS是2010版本,64位系統(tǒng)、win7.
求指教~多謝啦!
來源:開源中國
發(fā)布時間:2015-09-10 17:46:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
運(yùn)行環(huán)境:ubuntu 14.04 cmake:3.3 glib:2.19
我想要在下面的hello子目錄中使用glibc庫,請問應(yīng)該怎么寫該子目錄下的CMakeLists.txt?如果使用find_library的話,要怎么寫?
我的項目目錄 laolang@laolang-Lenovo-G470:~/code/cmake/eclipse/HelloCMake$ tree . ├── bin ├── CMakeLists.txt ├── include │ ├── hello.h │ └── sum.h ├── lib │ └── libsum.a └── src ├── CMakeLists.txt ├── hello │ ├── CMakeLists.txt │ └── hello.c ├── main │ ├── CMakeLists.txt │ └── main.c └── sum ├── CMakeLists.txt └── sum.c 7 directories, 11 files laolang@laolang-Lenovo-G470:~/code/cmake/eclipse/HelloCMake$
其中sum子目錄只用到了標(biāo)準(zhǔn)庫,也生成.a文件了,那么我在hello子目錄中使用了glibc庫,要如何寫txt文件?我的hello子目錄中txt文件
# hello CMakeLists.txt # 設(shè)置編譯器 set(CMAKE_C_COMPILER gcc) # glibc 庫目錄 set(GLIBC_INCLUDE /usr/include/glib-2.0 /usr/lib/x86_64-linux-gnu/glib-2.0/include) #glibc 庫文件 set(GLIBC_LIB glib-2.0) # 源文件列表 set(SRC_LIST hello.c) # 頭文件目錄 include_directories(${HELLO_SOURCE_DIR}/include) # 設(shè)置生成的庫文件的路徑 set(LIBRARY_OUTPUT_PATH ${HELLO_SOURCE_DIR}/lib) # 所需要的庫文件的目錄 link_directories($(GLIBC_INCLUDE)) # 生成的庫文件 add_library(hello STATIC ${SRC_LIST}) # 需要鏈接的庫文件 target_link_libraries(hello $(GLIBC_LIB))
make hello人錯誤信息:
laolang@laolang-Lenovo-G470:~/code/cmake/eclipse/HelloCMake/build$ make hello Scanning dependencies of target hello [ 50%] Building C object src/hello/CMakeFiles/hello.dir/hello.o /home/laolang/code/cmake/eclipse/HelloCMake/src/hello/hello.c:2:17: fatal error: glib.h: 沒有那個文件或目錄 #include ^ compilation terminated. make[3]: *** [src/hello/CMakeFiles/hello.dir/hello.o] 錯誤 1 make[2]: *** [src/hello/CMakeFiles/hello.dir/all] 錯誤 2 make[1]: *** [src/hello/CMakeFiles/hello.dir/rule] 錯誤 2 make: *** [hello] 錯誤 2 laolang@laolang-Lenovo-G470:~/code/cmake/eclipse/HelloCMake/build$
來源:開源中國
發(fā)布時間:2015-08-11 22:54:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
請問cmake在配置文件中使用動態(tài)鏈接庫和靜態(tài)鏈接庫?
來源:開源中國
發(fā)布時間:2015-05-13 13:02:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 在cmake mysql中,配置完以下參數(shù)后,執(zhí)行cmake,報錯了。cmake . -DCMAKE_INSTALL_PREFIX=/opt/mysql/ -DEXTRA_CHARSETS=all -DDEFAULT_CHARSET=utf8 -DDEFAULT_COLLATION=utf8_general_ci -DWITH_INNOBASE_STORAGE_ENGINE=1 -DWITH_PARTITION_STORAGE_ENGINE=1 -DWITH_MYISAMMRG_STORAGE_ENGINE=1 -DWITH_SSL=system -DWITH_EMBEDDED_SERVER=1 -DWITH_READLINE=1 -DENABLED_LOCAL_INFILE=1 -DMYSQL_DATADIR=/src/mysql/data/ -DMYSQL_USER=mysql -DMYSQL_TCP_PORT=3306
錯誤信息如下:
CMake Error at /usr/local/share/cmake-2.8/Modules/FindPackageHandleStandardArgs.cmake:178 (message): No REQUIRED_VARS specified for FIND_PACKAGE_HANDLE_STANDARD_ARGS() Call Stack (most recent call first ): /usr/ local / share /cmake- 2.8 /Modules/FindZLIB.cmake: 85 (FIND_PACKAGE_HANDLE_STANDARD_ARGS) cmake/zlib.cmake: 54 (INCLUDE) CMakeLists.txt: 209 (MYSQL_CHECK_ZLIB_WITH_COMPRESS) 這錯誤是缺少了什么包嗎?求大神指點(diǎn)
來源:開源中國
發(fā)布時間:2015-04-19 15:11:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 怎樣在cmakelists文件添加pcap,達(dá)到gcc -lpcap的效果。
來源:開源中國
發(fā)布時間:2014-11-05 22:28:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> CMake Error at C:/Program Files/CMake/share/cmake-3.0/Modules/FindPackageHandleStandardArgs.cmake:136 (message): Could NOT find TinyXML (missing: TINYXML_LIBRARY TINYXML_INCLUDE_DIR) Call Stack (most recent call first): C:/Program Files/CMake/share/cmake-3.0/Modules/FindPackageHandleStandardArgs.c make:343 (_FPHSA_FAILURE_MESSAGE) cmake/FindTinyXML.cmake:50 (FIND_PACKAGE_HANDLE_STANDARD_ARGS) CMakeLists.txt:5 (find_package)
來源:開源中國
發(fā)布時間:2014-06-21 18:26:00