HDC調試需求開發(fā)(15萬預算),能者速來!>>>
匯編代碼文件如下:
section .bss section .data section .text global _gettsc _gettsc: rdtsc rol rdx,32 or rdx,rax mov rax,rdx ret C/C++代碼文件如下:
#include extern unsigned long _gettsc(); int main() { unsigned long count = _gettsc(); return 0; } 如果c++代碼文件命名為.cpp則按照C++去編譯鏈接會報錯:
nasm -f elf64 -F stabs -Ox standerd.asm -o standerd.asm.o make: Circular standerd.asm <- standerd.asm.o dependency dropped. g++ -lpthread -I./ -masm=intel -O3 main.cxx.o standerd.asm.o -o test main.cxx.o: In function `main': main.cpp:(.text.startup+0x5): undefined reference to `_gettsc()' collect2: error: ld returned 1 exit status make: *** [all] Error 1 makefile:19: recipe for target 'all' failed 如果C/C++代碼文件改名為.c按照c語言去編譯鏈接則不會報錯
請問有什么解決辦法嗎?
HDC調試需求開發(fā)(15萬預算),能者速來!>>> RT,我是一名剛入門學習c語言的新人,網(wǎng)易云課堂里面老師是選擇的dev-c++作為學習工具使用的。自己也特意查了一下,linux下面的gcc+gdb的使用,感覺很麻煩啊。因為全都是在終端完成的,界面首先就很亂,gcc好像不會顯示全部的編譯信息,比如一些warning(好像可以加選項解決)。特別是在調試的時候dev-c++很容易選擇斷點,不用記行數(shù),可以同時很方便地查看代碼可以查看CPU窗口,這些要是在終端里面顯示的話(我也不知道能不能把win下面ide的功能全部實現(xiàn)),界面的可觀性就會變得很差,在調試大型程序的時候會很麻煩吧(只是我的猜想)。我并沒有想激起win和linux的黨爭,我是實用黨,感覺linux這方面不夠好,但是很可能是我自己見識淺薄所致,所以來問一問。win下的ide還行,但是有很多功能用不上會顯得臃腫,影響速度。 王垠當年提倡「完全用 linux 工作」,然而最近又發(fā)文挺 windows 噴 unix,這中間究竟經(jīng)歷了什么? 看過上面的鏈接后依然沒能解決我的問題。 我想知道, 各位前輩在linux平臺的開發(fā)工作是怎么進行的呢? 和win一樣繼續(xù)用ide嗎?而不是使用vim(...)+gcc+gdb嗎?感覺gdb調試起來特別麻煩,很不直觀,不便捷 ,有什么解決方法或者使用技巧嗎?還是感覺ide圖形界面的調試更方便快捷。
像一些手游,像微信這種app可以純在linux下完成開發(fā)嗎?還是寫完后拿到win下面調試之類的呢(雖然不知道可行否)? 是否所有的linux下的開發(fā)都可以通過ide來完成呢?作為新手,提問可能會很傻瓜,請見諒。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
450 tmpquestlist = pqlist;
(gdb) n
454 sendbuflen = panaddr - psb;
(gdb)
452 memcpy(psb, prb, sizeof(MHEAD_T) + tres.qlen);
(gdb)
454 sendbuflen = panaddr - psb;
(gdb)
455 while(tmpquestlist)
(gdb)
454 sendbuflen = panaddr - psb;
(gdb)
457 //?謇囈??s2?
(gdb) display sendbuflen
4: sendbuflen = 34
(gdb) n
460 tmprrslist = data;
4: sendbuflen = 34
(gdb)
源碼是:
450 tmpquestlist = pqlist;
451 / ?′?messageμèeado?uest2?·??Ь????èeado?uest? /
452 memcpy(psb, prb, sizeof(MHEAD_T) + tres.qlen);
453 panaddr = psb + sizeof(MHEAD_T) + tres.qlen;
454 sendbuflen = panaddr - psb;
455 while(tmpquestlist)
456 {
457 //?謇囈??s2?
很奇怪的現(xiàn)象啊,頭一次遇到!
gdb 調試單步執(zhí)行順序亂了,還缺少了
注釋行也在單步調試中顯示了
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
Program received signal SIGSEGV, Segmentation fault. [Switching to Thread 0x20027823210 (LWP 13841)] Cannot access memory at address 0x80000a9a8 (gdb) where Cannot access memory at address 0x80000a9a8 每次程序運行到這兒都會這樣的錯誤, bt 沒有提示信息
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
gdb調試提示:Missing separate debuginfos, use: debuginfo-install glibc-2.12-1.192.el6.i686
網(wǎng)上看了好多答案,都是如下解決方法:
但是我沒有CentOS-Debuginfo.repo這個文件,請問還有其他解決辦法嗎,或者說誰的centos有這個文件麻煩共享下,謝謝!
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
這不是bug。。。
nbz@bogon 1]$ ls
a.cc
[nbz@bogon 1]$ cat -n a.cc
1 #include
2 class myint { char m1[7]; };
3 main(){ myint i1, &i2 = i1;
4 std::cout << sizeof i2 << std::endl;
5 return sizeof i2;
6 }
[nbz@bogon 1]$ make a CXXFLAGS=-g
g++ -g a.cc -o a
[nbz@bogon 1]$ ./a
7
[nbz@bogon 1]$ gdb a
Reading symbols from /tmp/1/a...done.
(gdb) b main
Note: breakpoint 1 also set at pc 0x4007ec.
Breakpoint 1 at 0x4007ec: file a.cc, line 3. (2 locations)
(gdb) r
Starting program: /tmp/1/a
Breakpoint 1, main () at a.cc:3
3 main(){ myint i1, &i2 = i1;
(gdb) p sizeof i2
$1 = 8
(gdb)
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 我的系統(tǒng)是ubuntu12.04 gdb 版本為 7.7 cgdb版本為0.6.5 運行到cin時程序就卡住了。。。。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
在CentOS下用GDB調試程序時出現(xiàn)如下提示:
Program terminated with signal 11, Segmentation fault.
#0 0x0000000000400bfb in draw_menu (option=0x602000, current_highlight=0,
start_row=6, start_col=10) at app_cd.c:132
132 txtptr = choices[current];
Missing separate debuginfos, use: debuginfo-install glibc-2.12-1.80.el6_3.3.x86_64 ncurses-libs-5.7-3.20090208.el6.x86_64
不解什么意思,也不知道如何下手
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 擴展詞庫更新后,只有重啟搜索服務,重建索引才有效果,如何做到不需要重啟搜索服務就能重新加載 擴展詞庫呢?
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@石頭上的常春藤 你好,想跟你請教個問題: 你好,在網(wǎng)上看到你給別人的回復,說用ansj 及IKAnalyzer 分詞提取關鍵字,現(xiàn)在分詞是可以,關鍵字怎么提取,能不能私聊下,謝謝了。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
ik版本是3.2.0stable.jar lucene版本是3.0.2.jar
----------------IKAnalyzer.cfg.xml的配置內容----------------------------
/ext_first.dic
------------------測試代碼-------------------------------------------------
public static void main(String[] args) throws IOException {
new TestAnalyzer().test(new IKAnalyzer(), "我是個大帥哥,而且很聰明的大帥哥");
}
public void test(Analyzer analyzer,String text) throws IOException{
System.out.println("分詞器是:"+analyzer.getClass().getName());
TokenStream tokenStream=analyzer.tokenStream("content", new StringReader(text));
tokenStream.addAttribute(TermAttribute.class);
while(tokenStream.incrementToken()){
TermAttribute termAttribute=tokenStream.getAttribute(TermAttribute.class);
System.out.println(termAttribute.term());
}
}
但是結果報錯了:報錯信息如下。麻煩大家給點建議:
分詞器是:org.wltea.analyzer.lucene.IKAnalyzer
Exception in thread "main" java.lang.ExceptionInInitializerError
at org.wltea.analyzer.seg.ChineseSegmenter.
(ChineseSegmenter.java:37)
at org.wltea.analyzer.cfg.Configuration.loadSegmenter(Configuration.java:114)
at org.wltea.analyzer.IKSegmentation.(IKSegmentation.java:54)
at org.wltea.analyzer.lucene.IKTokenizer.(IKTokenizer.java:44)
at org.wltea.analyzer.lucene.IKAnalyzer.tokenStream(IKAnalyzer.java:45)
at cn.gdpe.lucene.TestAnalyzer.test(TestAnalyzer.java:32)
at cn.gdpe.lucene.TestAnalyzer.main(TestAnalyzer.java:27)
Caused by: java.lang.ArrayIndexOutOfBoundsException: 0
at org.wltea.analyzer.dic.DictSegment.fillSegment(DictSegment.java:139)
at org.wltea.analyzer.dic.DictSegment.fillSegment(DictSegment.java:128)
at org.wltea.analyzer.dic.Dictionary.loadMainDict(Dictionary.java:134)
at org.wltea.analyzer.dic.Dictionary.(Dictionary.java:71)
at org.wltea.analyzer.dic.Dictionary.(Dictionary.java:41)
... 7 more
謝謝大家了
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
IKAnalyzer 對英文分詞不起作用啊?求指點
英文怎么分詞?
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@楊尚川 你好,想跟你請教個問題:
當想我使用Word想對一些文本進行分詞時,我想能分出這樣帶空格的詞,如:Uniform Server
但是,我即使把Uniform Server這個詞加入到main_dic.txt主詞典中,我也沒有辦法得到分詞:uniform server。請問我有什么辦法能得到這種帶空格的詞嗎?
謝謝
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
在九月初 BosonNLP 全面開放了分詞和詞性標注引擎以后,很多尤其是從事數(shù)據(jù)處理和自然語言研究的朋友在試用后很好奇,玻森如何能夠做到目前的高準確率?希望這篇文章能夠幫助大家理解玻森分詞背后的實現(xiàn)原理。
眾所周知,中文并不像英文那樣詞與詞之間用空格隔開,因此,在一般情況下,中文分詞與詞性標注往往是中文自然語言處理的第一步。一個好的分詞系統(tǒng)是有效進行中文相關數(shù)據(jù)分析和產(chǎn)品開發(fā)的重要保證。
玻森采用的結構化預測模型是傳統(tǒng)線性條件隨機場( Linear-chain CRF )的一個變種。在過去及幾年的分詞研究中,雖然以字符為單位進行編碼,從而預測分詞與詞性標注的文獻占到了主流。這類模型雖然實現(xiàn)較容易,但比較難捕捉到高階預測變量之間的關系。比如傳統(tǒng)進行詞性標注問題上使用 Tri-gram 特征能夠得到較高準確率的結果,但一階甚至高階的字符 CRF 都難以建立這樣的關聯(lián)。所以玻森在字符編碼以外加入了詞語的信息,使這種高階作用同樣能被捕捉。
分詞與詞性標注中,新詞識別與組合切分歧義是兩個核心挑戰(zhàn)。玻森在這方面做了不少的優(yōu)化,包括對特殊字符的處理,對比較有規(guī)律的構詞方式的特征捕捉等。例如,近些年比較流行采用半監(jiān)督的方式,通過使用在大規(guī)模無標注數(shù)據(jù)上的統(tǒng)計數(shù)據(jù)來改善有監(jiān)督學習中的標注結果,也在我們的分詞實現(xiàn)上有所應用。比如通過使用 accressory variety 作為特征,能夠比較有效發(fā)現(xiàn)不同領域的新詞,提升泛化能力。
我們都知道上下文信息是解決組合切分歧義的重要手段。而作為一個面向實際商用環(huán)境的算法,除了在準確率上的要求之外,還需要注意模型算法的時間復雜度需要足夠高效。例如,相比于普通的 Linear-chain CRF , Skip-chain CRF 因為加入了更多的上下文信息,能夠在準確率上達到更好的效果,但因為其它在訓練和解碼過程,不論是精確算法還是近似算法,都難以達到我們對速度的要求,所以并沒有在我們最終實現(xiàn)中采用。一個比較有趣的分詞改進是我們捕捉了中文中常見的固定搭配詞對信息。譬如,如 “得出某個結論”、 “回答某個提問”等。如果前面出現(xiàn) “得出” ,后面出現(xiàn) “結論” ,那么“得出”和“結論”作為一個詞語出現(xiàn)的可能性就會很大,與這種相沖突的分詞方案的可能性就會很小。這類固定搭配也可以被建模,用于解決部分分詞錯誤的問題。
怎樣確定兩個詞是否是固定的搭配呢?我們通過計算兩個詞間的歸一化逐點互信息 (NPMI) 來確定兩個詞的搭配關系。逐點互信息( PMI ),經(jīng)常用在自然語言處理中,用于衡量兩個事件的緊密程度。歸一化逐點互信息( NPMI )是逐點互信息的歸一化形式,將逐點互信息的值歸一化到 -1 到 1 之間。如果兩個詞在一定距離范圍內共同出現(xiàn),則認為這兩個詞共現(xiàn)。篩選出 NPMI 高的兩個詞作為固定搭配,然后將這組固定搭配作為一個組合特征添加到分詞程序中。如“回答”和“問題”是一組固定的搭配,如果在標注“回答”的時候,就會找后面一段距離范圍內是否有“問題”,如果存在那么該特征被激活。
歸一化逐點互信息 (npmi) 的計算公式
逐點互信息 (pmi) 的計算公式
可以看出,如果我們提取固定搭配不限制距離,會使后面偶然出現(xiàn)某個詞的概率增大,降低該統(tǒng)計的穩(wěn)定性。在具體實現(xiàn)中,我們限定了成為固定搭配的詞對在原文中的距離 必須 小于一個常數(shù)。具體來看,可以采用倒排索引,通過詞找到其所在的位置,進而判斷其位置是否在可接受的區(qū)間。這個簡單的實現(xiàn)有個比較大的問題,即在特定構造的文本中,判斷兩個詞是否為固定搭配有可能需要遍歷位置數(shù)組,每次查詢就有 O(n) 的時間復雜度了,并且可以使用二分查找進一步降低復雜度為 O(logn) 。
其實這個詞對檢索問題有一個更高效的算法實現(xiàn)。我們采用滑動窗口的方法進行統(tǒng)計:在枚舉詞的同時維護一張詞表,保存在當前位置前后一段距離中出現(xiàn)的可能成詞的字符序列;當枚舉詞的位置向后移動時,窗口也隨之移動。這樣在遍歷到 “回答” 的時候,就可以通過查表確定后面是否有 “問題” 了,同樣在遇到后面的 “問題” 也可以通過查表確定前面是否有 “回答”。當枚舉下一個詞的時候,詞表也相應地進行調整。采用哈希表的方式查詢詞表,這樣計算一個固定搭配型時間復雜度就可以是 O(1) 了。
通過引入上述的上下文的信息,分詞與詞性標注的準確率有近 1% 的提升,而對算法的時間復雜度沒有改變。我們也在不斷迭代升級以保證引擎能夠越來越準確,改善其通用性和易用性。今后我們也會在 BosonNLP 微信賬戶更多享我們在自然語言處理方面的經(jīng)驗,歡迎 關注 !
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 不想將stopword.dic文件放在根目錄下,應該如何在IKAnalyzer.cfg.xml(該文件在根目錄下)中配置路徑呢
HDC調試需求開發(fā)(15萬預算),能者速來!>>> package sample3; import java.io.File; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apache.lucene.document.Field; import org.apache.lucene.index.IndexWriter; import org.apache.lucene.store.FSDirectory; import org.wltea.analyzer.lucene.IKAnalyzer; import com.mongodb.DB; import com.mongodb.DBCollection; import com.mongodb.DBCursor; import com.mongodb.Mongo; /** * 創(chuàng)建索引 * @author zhanghaijun * */ public class Demo1 { public static void main(String[] args) throws Exception { //先在數(shù)據(jù)庫中拿到要創(chuàng)建索引的數(shù)據(jù) Mongo mongo = new Mongo(); DB db = mongo.getDB("zhang"); DBCollection msg = db.getCollection("test3"); DBCursor cursor = msg.find(); //是否重新創(chuàng)建索引文件,false:在原有的基礎上追加 boolean create = true; //IK中文分詞器 Analyzer analyzer = new IKAnalyzer(); //創(chuàng)建索引 IndexWriter indexWriter = new IndexWriter(FSDirectory.open(new File("E:\\lucene\\index")), analyzer, create, IndexWriter.MaxFieldLength.UNLIMITED); boolean exist = cursor.hasNext(); while(exist){ //System.out.println(cursor.next().get("text").toString()); Document doc = new Document(); Field fieldText = new Field("text",cursor.next().get("text").toString(),Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.WITH_POSITIONS_OFFSETS); doc.add(fieldText); exist = cursor.hasNext(); } cursor = null; //optimize()方法是對索引進行優(yōu)化 indexWriter.optimize(); //最后關閉索引 indexWriter.close(); } } package sample3; import java.io.File; import java.io.IOException; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexReader; import org.apache.lucene.search.BooleanClause; import org.apache.lucene.search.IndexSearcher; import org.apache.lucene.search.Query; import org.apache.lucene.search.ScoreDoc; import org.apache.lucene.search.TopDocs; import org.apache.lucene.search.TopScoreDocCollector; import org.apache.lucene.store.FSDirectory; import org.wltea.analyzer.lucene.IKAnalyzer; import org.wltea.analyzer.lucene.IKQueryParser; import org.wltea.analyzer.lucene.IKSimilarity; /** * 查找索引 */ public class Demo2 { public static void main(String[] args) throws Exception { // onlysearching, so read-only=true IndexReader reader =IndexReader.open(FSDirectory.open(new File("E:\\lucene\\index")), true); IndexSearcher searcher = new IndexSearcher(reader); searcher.setSimilarity(new IKSimilarity()); //在索引器中使用IKSimilarity相似度評估器 //String[] keys = {"4","testtest"}; //關鍵字數(shù)組 //String[] fields = {"id","title"}; //搜索的字段 //BooleanClause.Occur[] flags = {BooleanClause.Occur.MUST,BooleanClause.Occur.MUST}; //BooleanClause.Occur[]數(shù)組,它表示多個條件之間的關系 //使用 IKQueryParser類提供的parseMultiField方法構建多字段多條件查詢 //Query query = IKQueryParser.parseMultiField(fields,keys, flags); //IKQueryParser多個字段搜索 Query query =IKQueryParser.parse("text","上海人"); //IK搜索單個字段 IKAnalyzer analyzer = new IKAnalyzer(); // Query query =MultiFieldQueryParser.parse(Version.LUCENE_CURRENT, keys, fields, flags,analyzer); //用MultiFieldQueryParser得到query對象 // System.out.println("query"+query.toString()); //查詢條件 TopScoreDocCollector topCollector = TopScoreDocCollector.create(searcher.maxDoc(), false); searcher.search(query,topCollector); ScoreDoc[] docs = topCollector.topDocs(3).scoreDocs; System.out.println(docs.length); reader.close(); //關閉索引 } }
結果: Exception in thread "Main Thread" java.lang.IllegalArgumentException: numHits must be > 0; please use TotalHitCountCollector if you just need the total hit count at org.apache.lucene.search.TopScoreDocCollector.create(TopScoreDocCollector.java:254) at org.apache.lucene.search.TopScoreDocCollector.create(TopScoreDocCollector.java:238) at sample3.Demo2.main(Demo2.java:35)
哪位朋友分析下吧 我是按照網(wǎng)上的模仿下來的不知道哪里出問題了
mongo中的一段數(shù)據(jù) /* 0 */ { "_id" : ObjectId("500d1a96df1d4d3b58245f95"), "username" : "zhangsan7046", "text" : "我是上海人,我的工作是承續(xù)員" }
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 我查看了一下IK的文檔示例,在中文分詞后的結果中原字符串中的標點符號都被忽略掉了,有沒有辦法保留原字符串中的所有字符,只是做分割的動作呢?
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 目前有個整形項目,通過nutch爬取得到很多中文,通過IK分詞效果不是特別理想,如“矯正牙齒”會分成“矯正”和“牙齒”,但是需要這樣的詞是連起來的,也就是說每一個動詞都要后加一個名詞
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@林良益 你好,想跟你請教個問題:如題
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
最近在用solr做一個項目,不斷開發(fā)不斷完善,但同事提出一個問題,以前沒考慮過,想了想好像確實有問題。
問題描述:
目前索引的時候分詞器采用的是max-word(當然與算法無關),目前我的詞庫有30萬詞,假如:以后我的詞庫增加了,那么檢索的時候是沒有問題的,但原來已經(jīng)索引的數(shù)據(jù),怎么辦呢?原來索引的時候有些詞沒有,被分成了單字,現(xiàn)在更新詞庫有了,那怎么辦呢????同事提出這樣,想了想確實有問題。不知道是我用的方式不對,還是哪里理解有問題。請大家?guī)兔獯鹣?謝謝?。?!
@紅薯 @滔哥
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 想問下大神,在用outputscript往jsf頁面引入js文件時,應該將js文件放到哪里???有說是要放到resources根目錄下,但是這個resources文件夾是自己創(chuàng)建還是創(chuàng)建工程時工程自己創(chuàng)建的???、我自己創(chuàng)建了一個,然后把js文件放到resources文件夾后,eclipse不報錯,但是js也不起作用?。?!~outputstylesheet標簽也是這樣,引入的css文件也不管用?。。?求助于大神?。。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@Credo 你好,想跟你請教個問題:看了你寫的CDI系列文章受益很深,CDI(Weld)基礎<2> JSF+CDI+JPA項目示例中,是用jsf做為view層,這里如果換成jsp或者ajax方式的操作是否可行呢,煩望指導,謝謝。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
工作算三年多了,停下來整理一下。
一年前發(fā)了篇走火入魔貼,之前被一大堆技術雜堆腦中,比較疲備,當時真想回家進體制內了。
挺巧,大學專業(yè)是電子信息工程,java沒教,培訓java也是因為在火車上跟一HR MM聊天,被告之j2ee火,好找工作,被忽悠去的,呵呵。
簡單點:
做過的項目有互聯(lián)網(wǎng),有企業(yè)應用,還是偏向互聯(lián)網(wǎng)。
javase 缺乏復雜多線程實戰(zhàn)經(jīng)驗,其他沒問題。
javame 忘掉,沒興趣+腦容量有限。
javaee
放入回收站:
velocity,springmvc,ibatics,spring,ejb
grails,rails,playframework,android yui,protype,php。
需要時,撿起。
ibatics 覺得沒有什么好吸收的,要真自己實現(xiàn)一個類似的,不難,也曾經(jīng)寫過個簡單的
rails 吸收約定優(yōu)于配置思想,DRY思想
spring 吸收ioc+aop與用到的一些設計模式,其它回收站
playframework 吸收jpa部分,動態(tài)編譯部分
grails 吸收gorm,groovy。
刪除:struts,struts2。
深入:javaee6規(guī)范,重點:jsf2規(guī)范,jdbc規(guī)范,servlet3規(guī)范;
jpa,hibernate,多線程,jvm。 計劃:重拾大學專業(yè)相關,離散數(shù)學。 重新看了宏哥的一些貼子和與別人有爭吵的貼子,過濾掉一些惡意信息,決定,DBA不是我的方向,oracle什么的,就不去折騰了。 對新java框架不再追逐,如果有興趣也是為了吸收框架精華部分,納入自己比較熟悉的seam+jsf,發(fā)現(xiàn)回收站還有好東西,隨時回收,呵呵。 新項目首選seam+jsf,實在不適合,從回收站中找。 目前已經(jīng)基本把play的jpa部分和動態(tài)編譯部分整合到seam中,play基本吃飽。 為升級到seam3做過渡,hack seam2源碼,支持jsf2了(讀jsf2規(guī)范,有點痛苦,不過讀完后更加確定研究jsf2了)。 動態(tài)編譯部分納入的話,琢磨看能不能用scala開發(fā)jsf項目。 明白了從重多框架中找出100%滿意的框架,不可能,真正滿意的只有自己實現(xiàn)。不過要從頭實現(xiàn)一個full-stack框架并且要設計良好,估計還得再有兩年功力。 這么看來,要弄的東西又多了,不追新,沉淀吧,先這么定了。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
看到RichFaces和PrimeFaces兩個基于jsf的框架。想找本關于他們的書看,僅有寥寥幾本。
網(wǎng)上一搜,感覺使用的不多,事實是這樣嗎? 是不是過時了或者將要過時?
它們各有什么優(yōu)缺點,比如學習的難度,開發(fā)的速度,是否依賴特定服務器或者別的什么,頁面效果是否漂亮,用什么開發(fā)環(huán)境比較合適等?
不要復制粘貼,忽悠我哦!
新手誠懇求教,感謝您的關注??!
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 感覺有點麻煩。比如簡單的驗證可以直接在客戶端瀏覽器用JS驗證就行,何必還要用驗證器?而且驗證器貌似還是要向服務器再發(fā)一次請求才能驗證。
HDC調試需求開發(fā)(15萬預算),能者速來!>>> jsf使用標簽來局部刷新表單,但是在ie9運行時就不會刷新出來 但在ie7 和8是沒有問題的?請大神指點
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 近期在一個公司實習,部門開發(fā)框架主要是 facelets + hibernate + spring,為此剛進去時,帶我的導師讓我先學習JSF這個框架,由于國內用的不多,所以是對著JSF的官方英文文檔啃的,說實話,學了幾天以后,真心覺著JSF這個框架很不錯,尤其是現(xiàn)在在使用了 tomahawk 這個JSF的組件庫,真心覺著簡化了好多操作,前端的模板定義多套,后臺數(shù)據(jù)用一份即可。。。真心覺著JSF很不錯啊,大家有木有啥想法的。。。
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 想召集深圳搞Magento的一起聚一聚,有興趣的回帖或者發(fā)我站內信。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@蟲蟲 你好,想跟你請教個問題:Makingware支持多店鋪嗎?想基于這個系統(tǒng)定制一下,必須支持多店鋪才行
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
求助大家誰能告訴我
Parse error: syntax error, unexpected T_FUNCTION, expecting ')' in D:\mogantoall\wamp\www\makingware_ce-1.6.5\app\design\frontend\myin\default\template\catalog\product\view\media.phtmlon line 31
這個BUG怎么解決啊
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 數(shù)據(jù)庫連接錯誤用戶名密碼都沒錯,主機localhost 數(shù)據(jù)庫名mj。論壇上有說自建數(shù)據(jù)庫的,也不行。 請指教,謝謝~
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@蟲蟲 你好,想跟你請教個問題: Magento中文版本 Makingware下載不了
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 安裝Makingware的時候直接輸入網(wǎng)站地址就跳到 /index.php/install/這個地址是不存在的
404 Not Found
怎么解決呢?
直接輸入/install.php 也不一樣,安裝第一步都進不去。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
1 前臺點擊“注冊”老是提示我Please enable cookies in your web browser to continue.
按照提示的修改后還是沒用,幾種瀏覽器都不行。
2 后臺老是提示用戶名密碼不對,也查過數(shù)據(jù)庫,輸入的用戶名密碼肯定是安裝時候的管理員。
謝謝。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
我安裝完成Makingware,后臺都可以使用,但是首頁只顯示這個,請問誰知道什么問題,后臺也上傳了商品
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 求各位大哥大姐麻煩告訴我一下如何安裝調試Makingware。在哪些免費的空間可以調試?有沒有專門的qq群之類的!小弟在此感謝不盡?。。?/div>
HDC調試需求開發(fā)(15萬預算),能者速來!>>> 為什么我安裝后,前臺打得開后臺卻找不到事怎么回事,求大神解決。
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
很多個列表都是這個問題,麻煩誰告訴我怎么弄才可以,謝謝大家了
下面是截圖:
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
@蟲蟲 你好,想跟你請教個問題:之前買的虛擬空間不支持pdo_mysql,所以想把makingware的數(shù)據(jù)庫連接方式改為mysqli,需要改動哪同個配置文件?
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
makingware如何開發(fā)插件:如怎么樣才能顯示helloworld!和magento開發(fā)插件文件目錄不同。