亚洲色成人网站www永久,亚洲欧美人成视频一区在线,亚洲国产成人高清在线观看,亚洲精品久久久久久动漫,亚洲国产精品久久电影欧美

數(shù)據(jù)專欄

智能大數(shù)據(jù)搬運(yùn)工,你想要的我們都有

科技資訊

科技學(xué)院

科技百科

科技書籍

網(wǎng)站大全

軟件大全

HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 使用AFinal的FinalDb將數(shù)據(jù)保存到數(shù)據(jù)庫中 如果是正常退出 下次啟動時 可以查詢到保存的數(shù)據(jù) 但是如果使用一鍵清理后 再次啟動時 之前保存的內(nèi)容就查詢不到了 這種問題應(yīng)該如何處理
技術(shù)問答
2015-08-11 09:09:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@michaely 你好,想跟你請教個問題:
FinalHttp調(diào)用download回調(diào)onFailure方法的strMsg提示"permission denied"。
我有加入網(wǎng)絡(luò)權(quán)限和sd卡讀寫權(quán)限。這個問題以前是沒有的吧,是不是后來調(diào)整哪里了,然后才出現(xiàn)的,該怎么解決呢?

技術(shù)問答
2015-07-02 18:06:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@michaely 你好,想跟你請教個問題:
您好 我想請教一個問題: 我使用finalHttp.post(url, params, new AjaxCallBack() 同時上傳文本和文件,但是服務(wù)端接受文本數(shù)據(jù)打印出來是亂碼,代碼如下。
客戶端:
AjaxParams params = new AjaxParams();
params.put("file", file); params.put("text", "你好?。?!");
服務(wù)端:
for(FileItem item : list){
if(item.getFieldName().equals("text")){
System.out.println("-------------value:"+ item.getString());
/////////////////// 打印出來的value 為亂碼
continue;
技術(shù)問答
2015-06-30 11:18:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 下載好像沒問題,上傳時public void onLoading(long count, long current) {}中的count和current都是36...只調(diào)用一次
技術(shù)問答
2013-09-02 11:59:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@高翔303 你好,想跟您請教個問題:
我跟您寫的是一模一樣,為毛我的程序就跑不起來呢。報錯如下,請您幫我瞅瞅。

技術(shù)問答
2015-05-26 14:21:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@michaely 你好,想跟你請教個問題:afinal怎么操作一對多或多對一關(guān)系的表.

我這樣保存User但是UserDetail這個表沒有創(chuàng)建也沒有添加數(shù)據(jù)?應(yīng)該是怎么配那個注解???能發(fā)個demo嗎?謝謝了。
技術(shù)問答
2012-12-21 14:40:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
我感覺沒有什么必要。。
大家覺得呢?
技術(shù)問答
2014-08-21 17:28:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
aFinal框架開發(fā)android應(yīng)用很方便,我最近在用碰到了一個上次圖片的問題
當(dāng)選擇多張圖片發(fā)布到服務(wù)器上時,afinal里的寫法是這樣: AjaxParams params = new AjaxParams (); params . put( " username " , " michael yang " ); params . put( " password " , " 123456 " ); params . put( " email " , " test@tsz.net " ); params . put( " profile_picture " , new File ( " /mnt/sdcard/pic.jpg " )); // 上傳文件 params . put( " profile_picture2 " , inputStream); // 上傳數(shù)據(jù)流 params . put( " profile_picture3 " , new ByteArrayInputStream (bytes)); // 提交字節(jié)流 FinalHttp fh = new FinalHttp (); fh . post( " http://www.yangfuhai.com " , params, new AjaxCallBack (){ @Override public void onLoading ( long count , long current ) { textView . setText(current + " / " + count); } @Override public void onSuccess ( String t ) { textView . setText(t == null ? " null " : t); } }); 將圖片當(dāng)參數(shù)傳給服務(wù)器,都是不同名字的,可服務(wù)器接收的是多張圖片文件的數(shù)組,不知道afinal里該怎么拼裝數(shù)據(jù),當(dāng)一個參數(shù)發(fā)送給服務(wù)器,糾結(jié)很久了,還是沒找到好的方法,希望能得到android大大們幫助
技術(shù)問答
2014-12-08 23:46:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> @michaely afinal多點(diǎn)續(xù)傳的原理是什么,看了下源碼,沒有操作數(shù)據(jù)庫。是怎么實(shí)現(xiàn)的
技術(shù)問答
2015-01-20 13:34:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
spark 的rdd 和 hdfs的廣播 的聯(lián)系和應(yīng)用,有人了解嗎?
技術(shù)問答
2019-12-02 13:30:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
1.如果數(shù)據(jù)量在1T-1000他之間
2.SQL 查詢比較復(fù)雜,比如 5-10個表的join
3.插入更新 頻率 1w/s (總和,比如1:1)
4.復(fù)雜查詢頻率不高,但是掃描數(shù)據(jù)量(1000~1億W)左右,響應(yīng)速度?
5.數(shù)據(jù)快速導(dǎo)出到HDFS
6.數(shù)據(jù)不丟失

假設(shè)全是結(jié)構(gòu)化數(shù)據(jù)(mysql binlog同步)
以上很多場景,哪些比較合適的,有測試對比嗎?
技術(shù)問答
2018-12-13 16:29:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
想建設(shè)一個數(shù)據(jù)倉庫,查閱了很多數(shù)倉建設(shè)方案,現(xiàn)在分層方案已經(jīng)有了,具體物理上基于hive如何構(gòu)建還是比較迷惑。主要疑問這幾點(diǎn):
1、在hive中建立多個庫來分別代表不同的層嗎?
2、hive中可以用多個數(shù)據(jù)庫嗎?
3、物理上每一層都是隔離的嗎,在不同的機(jī)器上?
本著謀求當(dāng)下最佳實(shí)踐經(jīng)驗(yàn),不求最好,但求最適合,請有經(jīng)驗(yàn)的大神給分享一下基于hive的建設(shè)思路。不勝感激。
技術(shù)問答
2018-11-30 09:06:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
有一個內(nèi)部表student,字段有name,sex,其中sex是分區(qū)字段,目前有兩個分區(qū),sex=1和sex=2.我在hdfs上hive內(nèi)部表的默認(rèn)目錄中刪除了sex=2的目錄,然后執(zhí)行select * from student;這會觸發(fā)一個異常:
Error:Error while compiling statement:FAILED:SemanticException [Error 10041]:No partition predicate found for Alias "student" table "student"(state=42000,code=10041).
我想知道在這種情況下,如何能讓查詢語句正常執(zhí)行.謝謝各位了!
技術(shù)問答
2018-11-08 16:44:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
centos7 +hadoop2.7.3+服務(wù)器1核2G內(nèi)存
--------------------fen ge xian------------
實(shí)驗(yàn)一直使用root用戶進(jìn)行。
namenode日志如下圖:。。。。。 ulimit -a for user root core file size (blocks, -c) 0 data seg size (kbytes, -d) unlimited scheduling priority (-e) 0 file size (blocks, -f) unlimited pending signals (-i) 7283 max locked memory (kbytes, -l) 64 max memory size (kbytes, -m) unlimited open files (-n) 100001 pipe size (512 bytes, -p) 8 POSIX message queues (bytes, -q) 819200 real-time priority (-r) 0 stack size (kbytes, -s) 8192 cpu time (seconds, -t) unlimited max user processes (-u) 7283 virtual memory (kbytes, -v) unlimited file locks (-x) unlimited ~ ~
網(wǎng)上一看,說進(jìn)程數(shù)不夠??然后后面嘗試過改成umilit -n 65535又或者是改/etc/security/limits.d/里面的配置文件
沒用。。。依然啟動沒用namenode,日志依然如上。
于是,我又試了另外一個方法 2、namenode無法啟動 日志報錯“ulimit -a for userroot” 解決: 重新格式化namenode,然后啟動hadoop,jps存在namenode。
該方法來自此連接:
https://blog.csdn.net/sunglee_1992/article/details/53024163
好了,第一次還奏效,就格式化嘛。。然后namenode果然出來了。但是?。?!過了幾小時一看,namenode沒了,而且再用也不奏效,不論是重啟后使用還是怎么滴。。 [root@master ~]# jps 2497 SecondaryNameNode 3391 Jps
我看內(nèi)存也沒有使用多少啊。。如圖: [root@master ~]# free -m total used free shared buff/cache available Mem: 1839 355 901 0 582 1327 Swap: 0 0 0 [root@master ~]#
之前玩的偽分布模式?jīng)]遇過這種問題,,這次試了一下用兩個服務(wù)器一namenode一datanode就不行了。。(期間成功開啟namenode的一次還不能用master:50070打開web頁面。。我用那個查看監(jiān)視端口的命令,50070端口根本沒出現(xiàn)..)
提出疑問:
入門不久,沒看懂這個日志想跟我表明什么?我該如何處理才能順利啟動namenode呢?
(需要貼4個配置文件嗎?我都是用最簡單的配置。。。就連HA也沒配,就寫了tmp.dir之類的最基礎(chǔ)的)
技術(shù)問答
2018-09-21 08:02:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
需要針對 存儲的數(shù)據(jù)根據(jù)規(guī)則打上標(biāo)簽、想的是 spark streaming 監(jiān)控 hdfs 文件變動,看能不能獲取到所需的數(shù)據(jù),感覺不行啊。。求助!!!,是我思路有問題嗎?
技術(shù)問答
2018-06-06 10:51:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Need to move 17.96 TB to make the cluster balanced.
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.32:10010 to 10.129.196.24:10010
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.33:10010 to 10.129.196.23:10010
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.21:10010 to 10.129.196.27:10010
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.30:10010 to 10.129.196.21:10010
2017-11-16 17:31:44,693 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.27:10010 to 10.129.196.26:10010
2017-11-16 17:31:44,694 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.35:10010 to 10.129.196.25:10010
2017-11-16 17:31:44,694 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Decided to move 10 GB bytes from 10.129.198.31:10010 to 10.129.196.22:10010
2017-11-16 17:31:44,694 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: Will move 70 GB in this iteration
2017-11-16 17:31:44,759 WARN org.apache.hadoop.hdfs.server.balancer.Balancer: Exception while getting block list
org.apache.hadoop.ipc.RemoteException(java.lang.ArrayIndexOutOfBoundsException): java.lang.ArrayIndexOutOfBoundsException
at org.apache.hadoop.ipc.Client.call(Client.java:1411)
at org.apache.hadoop.ipc.Client.call(Client.java:1364)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206)
at com.sun.proxy.$Proxy12.getBlocks(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.NamenodeProtocolTranslatorPB.getBlocks(NamenodeProtocolTranslatorPB.java:98)
at sun.reflect.GeneratedMethodAccessor3.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:187)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy13.getBlocks(Unknown Source)
at org.apache.hadoop.hdfs.server.balancer.Balancer$Source.getBlockList(Balancer.java:684)
at org.apache.hadoop.hdfs.server.balancer.Balancer$Source.dispatchBlocks(Balancer.java:810)
at org.apache.hadoop.hdfs.server.balancer.Balancer$Source.access$1600(Balancer.java:640)
at org.apache.hadoop.hdfs.server.balancer.Balancer$Source$BlockMoveDispatcher.run(Balancer.java:647)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:744)

麻煩大家?guī)兔匆幌略趺椿厥?這是namenode報的錯誤信息。
技術(shù)問答
2017-11-17 14:35:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
HDFS不支持對數(shù)據(jù)的修改,能刪除和追加,但是能否通過SparkSQL 實(shí)現(xiàn)對HDFS上數(shù)據(jù)的修改呢??
技術(shù)問答
2017-08-27 00:25:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
現(xiàn)在我們有個業(yè)務(wù)場景:hive表的統(tǒng)計分析任務(wù),需要一個調(diào)度系統(tǒng)來進(jìn)行協(xié)調(diào),管理任務(wù)優(yōu)先級,任務(wù)父子節(jié)點(diǎn)先后順序,支持重跑等功能。
技術(shù)問答
2017-06-07 10:40:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
想用hbase存儲業(yè)務(wù)數(shù)據(jù),但業(yè)務(wù)數(shù)據(jù)的主鍵都是按時間遞增的值
數(shù)據(jù)量很大,如果采用數(shù)據(jù)的主鍵作為rowkey?
因?yàn)橐粋€region只能由一個服務(wù)器管理,所以所有的更新都會集中在一臺服務(wù)器上,這會導(dǎo)致系統(tǒng)產(chǎn)生讀寫熱點(diǎn),并由于寫入數(shù)據(jù)過分集中而導(dǎo)致整個系統(tǒng)性能下降?
系統(tǒng)已經(jīng)運(yùn)行很久,業(yè)務(wù)數(shù)據(jù)已經(jīng)產(chǎn)生,想把這些數(shù)據(jù)采用HBASE存儲,目前是MYSQL存儲
如何解決這個問題呢?
技術(shù)問答
2014-11-07 18:00:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
我現(xiàn)在有一個hadoop集群,但是只有一個namenode,我想知道我的namenode能承受多大的訪問量?namenode一宕機(jī)整個集群都玩完了。或者有沒有什么方案可以實(shí)現(xiàn)負(fù)載均衡?我知道hadoop本身就有負(fù)載均衡,可以把block均勻的放在datanode上,但是namenode還是只有一個。
望請各位解答我的疑問。
謝謝大家
技術(shù)問答
2017-04-12 21:29:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
問個Hadoop NameNode的相關(guān)問題,問題是這樣的:我們的生產(chǎn)環(huán)境hadoop 2.5只啟動了namenode,沒啟動secondnamenode和做HA,昨天因?yàn)閙aster節(jié)點(diǎn)內(nèi)存溢出,掛掉了,然后再次啟動的時候就報了這個錯誤: 2017-03-29 08:07:10,392 WARN org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Encountered exception loading fsimage java.io.IOException: There appears to be a gap in the edit log. We expected txid 1, but got txid 162204250. at org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext.editLogLoaderPrompt(MetaRecoveryContext.java:94) at org.apache.hadoop.hdfs.server.namenode.FSEditLogLoader.loadEditRecords(FSEditLogLoader.java:209) at org.apache.hadoop.hdfs.server.namenode.FSEditLogLoader.loadFSEdits(FSEditLogLoader.java:137) at org.apache.hadoop.hdfs.server.namenode.FSImage.loadEdits(FSImage.java:816) at org.apache.hadoop.hdfs.server.namenode.FSImage.loadFSImage(FSImage.java:676) at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:279) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:994) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:726) at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:529) at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:585) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:751) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:735) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1476) 2017-03-29 08:07:10,498 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join java.io.IOException: There appears to be a gap in the edit log. We expected txid 1, but got txid 162204250. at org.apache.hadoop.hdfs.server.namenode.MetaRecoveryContext.editLogLoaderPrompt(MetaRecoveryContext.java:94) at org.apache.hadoop.hdfs.server.namenode.FSEditLogLoader.loadEditRecords(FSEditLogLoader.java:209) at org.apache.hadoop.hdfs.server.namenode.FSEditLogLoader.loadFSEdits(FSEditLogLoader.java:137) at org.apache.hadoop.hdfs.server.namenode.FSImage.loadEdits(FSImage.java:816) at org.apache.hadoop.hdfs.server.namenode.FSImage.loadFSImage(FSImage.java:676) at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:279) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:994) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:726) at org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:529) at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:585) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:751) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:735) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1476)
這個錯誤其實(shí)百度解決方案都是一致的: 原因:namenode元數(shù)據(jù)被破壞,需要修復(fù) 解決:恢復(fù)一下namenode hadoop namenode -recover
但是我嘗試了下依然啟動不起來,同樣的錯誤。我觀察了下namenode的具體內(nèi)容和實(shí)際的集群操作,現(xiàn)在實(shí)際問題是我們的1月8號這天我們對namenode做了格式化(之前有數(shù)據(jù)):
fsimage的版本是:fsimage_0000000000000000000(1月8號)
而editlog最低版本hadoop自動生成的不是1,而是
edits_0000000000162204250-0000000000164244310(第一個版本)
集群并沒有丟失過namenode數(shù)據(jù),以下是namenode文件列表 -rw-rw-r-- 1 dc dc 449870376 Jan 11 09:31 edits_0000000000162204250-0000000000164244310 -rw-rw-r-- 1 dc dc 455993242 Jan 11 13:36 edits_0000000000164244311-0000000000166310268 -rw-rw-r-- 1 dc dc 431516862 Jan 14 23:06 edits_0000000000166310269-0000000000168353141 -rw-rw-r-- 1 dc dc 442553236 Jan 15 05:11 edits_0000000000168353142-0000000000170362625 -rw-rw-r-- 1 dc dc 442716989 Jan 15 09:01 edits_0000000000170362626-0000000000172368984 -rw-rw-r-- 1 dc dc 446921507 Jan 15 12:31 edits_0000000000172368985-0000000000174393760 -rw-rw-r-- 1 dc dc 443368815 Jan 15 16:21 edits_0000000000174393761-0000000000176399727 -rw-rw-r-- 1 dc dc 450792325 Jan 15 20:26 edits_0000000000176399728-0000000000178440654 -rw-rw-r-- 1 dc dc 456930167 Jan 16 02:16 edits_0000000000178440655-0000000000180511581 -rw-rw-r-- 1 dc dc 453644963 Jan 16 06:46 edits_0000000000180511582-0000000000182575682 -rw-rw-r-- 1 dc dc 448695514 Jan 16 10:51 edits_0000000000182575683-0000000000184614234 -rw-rw-r-- 1 dc dc 440278940 Jan 16 14:46 edits_0000000000184614235-0000000000186615837 -rw-rw-r-- 1 dc dc 447295881 Jan 16 18:51 edits_0000000000186615838-0000000000188645150 -rw-rw-r-- 1 dc dc 442591426 Jan 16 23:01 edits_0000000000188645151-0000000000190650764 -rw-rw-r-- 1 dc dc 450636722 Jan 17 05:26 edits_0000000000190650765-0000000000192697254 -rw-rw-r-- 1 dc dc 455166691 Jan 17 09:26 edits_0000000000192697255-0000000000194762434 -rw-rw-r-- 1 dc dc 446226866 Jan 17 13:11 edits_0000000000194762435-0000000000196787110 -rw-rw-r-- 1 dc dc 455379286 Jan 17 17:11 edits_0000000000196787111-0000000000198851160 -rw-rw-r-- 1 dc dc 441326239 Jan 17 21:16 edits_0000000000198851161-0000000000200853938 -rw-rw-r-- 1 dc dc 441960567 Jan 18 03:36 edits_0000000000200853939-0000000000202863493 -rw-rw-r-- 1 dc dc 445629865 Jan 18 07:26 edits_0000000000202863494-0000000000204883435 -rw-rw-r-- 1 dc dc 455087158 Jan 18 11:26 edits_0000000000204883436-0000000000206947149 -rw-rw-r-- 1 dc dc 440255432 Jan 18 15:31 edits_0000000000206947150-0000000000208949969 -rw-rw-r-- 1 dc dc 438984246 Jan 18 20:06 edits_0000000000208949970-0000000000210966178 -rw-rw-r-- 1 dc dc 444680471 Jan 19 00:11 edits_0000000000210966179-0000000000212989323 -rw-rw-r-- 1 dc dc 451446983 Jan 19 06:06 edits_0000000000212989324-0000000000215048745 -rw-rw-r-- 1 dc dc 453881743 Jan 19 10:06 edits_0000000000215048746-0000000000217112648 -rw-rw-r-- 1 dc dc 438766537 Jan 19 14:06 edits_0000000000217112649-0000000000219113769 -rw-rw-r-- 1 dc dc 439776222 Jan 19 18:06 edits_0000000000219113770-0000000000221117542 -rw-rw-r-- 1 dc dc 443975771 Jan 19 22:11 edits_0000000000221117543-0000000000223140279 -rw-rw-r-- 1 dc dc 442748245 Jan 20 04:01 edits_0000000000223140280-0000000000225161207 -rw-rw-r-- 1 dc dc 438830540 Jan 20 08:01 edits_0000000000225161208-0000000000227165924 -rw-rw-r-- 1 dc dc 441143096 Jan 20 11:56 edits_0000000000227165925-0000000000229183182 -rw-rw-r-- 1 dc dc 440125627 Jan 20 15:51 edits_0000000000229183183-0000000000231193746 -rw-rw-r-- 1 dc dc 450676256 Jan 20 19:56 edits_0000000000231193747-0000000000233253866 -rw-rw-r-- 1 dc dc 445533425 Jan 21 00:01 edits_0000000000233253867-0000000000235290088 -rw-rw-r-- 1 dc dc 447986915 Jan 21 05:46 edits_0000000000235290089-0000000000237327710 -rw-rw-r-- 1 dc dc 447447142 Jan 21 09:26 edits_0000000000237327711-0000000000239337475 -rw-rw-r-- 1 dc dc 446661949 Jan 21 13:11 edits_0000000000239337476-0000000000241346072 -rw-rw-r-- 1 dc dc 444816287 Jan 21 17:01 edits_0000000000241346073-0000000000243346264 -rw-rw-r-- 1 dc dc 450740109 Jan 21 20:56 edits_0000000000243346265-0000000000245375757 -rw-rw-r-- 1 dc dc 447906463 Jan 22 02:16 edits_0000000000245375758-0000000000247394334 -rw-rw-r-- 1 dc dc 450638656 Jan 22 06:36 edits_0000000000247394335-0000000000249436277 -rw-rw-r-- 1 dc dc 443798521 Jan 22 10:46 edits_0000000000249436278-0000000000251441784 -rw-rw-r-- 1 dc dc 442892253 Jan 22 15:01 edits_0000000000251441785-0000000000253450117 -rw-rw-r-- 1 dc dc 441307529 Jan 22 19:26 edits_0000000000253450118-0000000000255450204 -rw-rw-r-- 1 dc dc 441302807 Jan 22 23:51 edits_0000000000255450205-0000000000257450393 -rw-rw-r-- 1 dc dc 439592227 Jan 23 06:11 edits_0000000000257450394-0000000000259453841 -rw-rw-r-- 1 dc dc 445046140 Jan 23 10:36 edits_0000000000259453842-0000000000261472460 -rw-rw-r-- 1 dc dc 449611708 Jan 23 14:51 edits_0000000000261472461-0000000000263503102 -rw-rw-r-- 1 dc dc 447040133 Jan 23 19:06 edits_0000000000263503103-0000000000265515255 -rw-rw-r-- 1 dc dc 447526878 Jan 23 23:11 edits_0000000000265515256-0000000000267526571 -rw-rw-r-- 1 dc dc 454693067 Jan 24 05:26 edits_0000000000267526572-0000000000269580965 -rw-rw-r-- 1 dc dc 452209474 Jan 24 09:31 edits_0000000000269580966-0000000000271612731 -rw-rw-r-- 1 dc dc 454565779 Jan 24 13:41 edits_0000000000271612732-0000000000273653835 -rw-rw-r-- 1 dc dc 447891347 Jan 24 17:41 edits_0000000000273653836-0000000000275667549 -rw-rw-r-- 1 dc dc 447086213 Jan 24 21:36 edits_0000000000275667550-0000000000277682114 -rw-rw-r-- 1 dc dc 443852209 Jan 25 03:11 edits_0000000000277682115-0000000000279694079 -rw-rw-r-- 1 dc dc 444064231 Jan 25 06:46 edits_0000000000279694080-0000000000281695147 -rw-rw-r-- 1 dc dc 450088440 Jan 25 10:21 edits_0000000000281695148-0000000000283714275 -rw-rw-r-- 1 dc dc 442611806 Jan 28 02:16 edits_0000000000283714276-0000000000285725024 -rw-rw-r-- 1 dc dc 428961410 Feb 2 02:36 edits_0000000000285725025-0000000000287728013 -rw-rw-r-- 1 dc dc 427145299 Feb 8 02:11 edits_0000000000287728014-0000000000289729163 -rw-rw-r-- 1 dc dc 430521386 Feb 13 02:26 edits_0000000000289729164-0000000000291740727 -rw-rw-r-- 1 dc dc 441607787 Feb 19 02:11 edits_0000000000291740728-0000000000293813443 -rw-rw-r-- 1 dc dc 432544029 Feb 24 02:26 edits_0000000000293813444-0000000000295836731 -rw-rw-r-- 1 dc dc 439154130 Mar 2 02:11 edits_0000000000295836732-0000000000297894267 -rw-rw-r-- 1 dc dc 434329480 Mar 7 02:26 edits_0000000000297894268-0000000000299933463 -rw-rw-r-- 1 dc dc 440107121 Mar 13 02:11 edits_0000000000299933464-0000000000302007247 -rw-rw-r-- 1 dc dc 425999256 Mar 18 02:21 edits_0000000000302007248-0000000000304010365 -rw-rw-r-- 1 dc dc 425661857 Mar 23 02:41 edits_0000000000304010366-0000000000306014918 -rw-rw-r-- 1 dc dc 441503826 Mar 29 02:16 edits_0000000000306014919-0000000000308087977 -rw-rw-r-- 1 dc dc 20971520 Mar 29 07:33 edits_0000000000308087978-0000000000308184833 -rw-rw-r-- 1 dc dc 349 Jan 8 01:54 fsimage_0000000000000000000 -rw-rw-r-- 1 dc dc 62 Jan 8 01:54 fsimage_0000000000000000000.md5 -rw-rw-r-- 1 dc dc 2 Mar 30 15:23 seen_txid -rw-rw-r-- 1 dc dc 2 Mar 29 11:24 seen_txid.bak -rw-rw-r-- 1 dc dc 204 Jan 8 01:54 VERSION
現(xiàn)在這個錯誤:We expected txid 1, but got txid 162204250
實(shí)際是namenode的fsimage記錄的是txid是從1開始的,但是實(shí)際的editlog開始txid并不是1,而是162204250,這就導(dǎo)致了namenode對不上版本,recover也是從版本1開始,所以恢復(fù)是無效的,問問OSC的各位大牛,這種情況下該怎么處理不丟數(shù)據(jù),重要的是不丟數(shù)據(jù)
技術(shù)問答
2017-03-30 15:59:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
感覺通過Federation方式能夠解決小文件問題,將一個block size設(shè)置的小一點(diǎn)專門存儲不用實(shí)時訪問的小文件
技術(shù)問答
2017-03-23 22:02:06
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
CDH5.7.2環(huán)境跑比較大的任務(wù)時候,其他任務(wù)一直等待,小任務(wù)可以并行,
關(guān)鍵這個大任務(wù),其實(shí)也不大也就10G的數(shù)據(jù),我的配置8臺128G內(nèi)存的,CPU和內(nèi)存還剩余好多,我覺得應(yīng)該是配置的的問題,搜了好久,測試了好些參數(shù)配置都沒有效果,所以才發(fā)帖子來問下的,謝謝大家了,請幫忙看看,我覺得肯定是這個任務(wù)占用了 分配的所有資源,導(dǎo)致其他任務(wù)只能等待。
技術(shù)問答
2016-10-25 21:33:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
為什么我在HDFS服務(wù)器端也就是HDFS集群上配置的hdfs-site.xml的dfs.blocksize的大小不起作用,而在HDFS客戶端配置的起作用?那么這樣子的話集群上的配置有什么意義?
技術(shù)問答
2017-02-28 11:07:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 分布式安裝Hadoop出錯,配置有一臺master,三臺slave。 master上namenode 和resourcemanager啟動錯誤。jdk、環(huán)境變量和ssh無密碼登陸均已設(shè)置。日志如下:STARTUP_MSG: build = https://git-wip-us.apache.org/repos/asf/hadoop.git -r e3496499ecb8d220fba99dc5ed4c99c8f9e33bb1; compiled by 'jenkins' on 2014-11-13T21:10Z STARTUP_MSG: java = 1.7.0_65 ************************************************************/ 2015-11-06 17:27:42,226 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: registered UNIX signal handlers for [TERM, HUP, INT] 2015-11-06 17:27:42,229 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: createNameNode [] 2015-11-06 17:27:42,572 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties 2015-11-06 17:27:42,673 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s). 2015-11-06 17:27:42,673 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system started 2015-11-06 17:27:42,675 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: fs.defaultFS is hdfs://master.hadoop:9000 2015-11-06 17:27:42,676 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Clients are to use master.hadoop:9000 to access this namenode/service. 2015-11-06 17:27:53,008 INFO org.apache.hadoop.hdfs.DFSUtil: Starting Web-server for hdfs at: http://0.0.0.0:50070 2015-11-06 17:27:53,049 INFO org.mortbay.log: Logging to org.slf4j.impl.Log4jLoggerAdapter(org.mortbay.log) via org.mortbay.log.Slf4jLog 2015-11-06 17:27:53,053 INFO org.apache.hadoop.http.HttpRequestLog: Http request log for http.requests.namenode is not defined 2015-11-06 17:27:53,063 INFO org.apache.hadoop.http.HttpServer2: Added global filter 'safety' (class=org.apache.hadoop.http.HttpServer2$QuotingInputFilter) 2015-11-06 17:27:53,066 INFO org.apache.hadoop.http.HttpServer2: Added filter static_user_filter (class=org.apache.hadoop.http.lib.StaticUserWebFilter$StaticUserFilter) to context hdfs 2015-11-06 17:27:53,066 INFO org.apache.hadoop.http.HttpServer2: Added filter static_user_filter (class=org.apache.hadoop.http.lib.StaticUserWebFilter$StaticUserFilter) to context static 2015-11-06 17:27:53,066 INFO org.apache.hadoop.http.HttpServer2: Added filter static_user_filter (class=org.apache.hadoop.http.lib.StaticUserWebFilter$StaticUserFilter) to context logs 2015-11-06 17:27:53,120 INFO org.apache.hadoop.http.HttpServer2: Added filter 'org.apache.hadoop.hdfs.web.AuthFilter' (class=org.apache.hadoop.hdfs.web.AuthFilter) 2015-11-06 17:27:53,122 INFO org.apache.hadoop.http.HttpServer2: addJerseyResourcePackage: packageName=org.apache.hadoop.hdfs.server.namenode.web.resources;org.apache.hadoop.hdfs.web.resources, pathSpec=/webhdfs/v1/* 2015-11-06 17:27:53,139 INFO org.apache.hadoop.http.HttpServer2: HttpServer.start() threw a non Bind IOException java.net.BindException: Port in use: 0.0.0.0:50070 at org.apache.hadoop.http.HttpServer2.openListeners(HttpServer2.java:891) at org.apache.hadoop.http.HttpServer2.start(HttpServer2.java:827) at org.apache.hadoop.hdfs.server.namenode.NameNodeHttpServer.start(NameNodeHttpServer.java:142) at org.apache.hadoop.hdfs.server.namenode.NameNode.startHttpServer(NameNode.java:703) at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:590) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:762) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:746) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1438) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504) Caused by: java.net.BindException: Address already in use at sun.nio.ch.Net.bind0(Native Method) at sun.nio.ch.Net.bind(Net.java:444) at sun.nio.ch.Net.bind(Net.java:436) at sun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:214) at sun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:74) at org.mortbay.jetty.nio.SelectChannelConnector.open(SelectChannelConnector.java:216) at org.apache.hadoop.http.HttpServer2.openListeners(HttpServer2.java:886) ... 8 more 2015-11-06 17:27:53,141 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Stopping NameNode metrics system... 2015-11-06 17:27:53,141 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system stopped. 2015-11-06 17:27:53,141 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system shutdown complete. 2015-11-06 17:27:53,141 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Failed to start namenode. java.net.BindException: Port in use: 0.0.0.0:50070 at org.apache.hadoop.http.HttpServer2.openListeners(HttpServer2.java:891) at org.apache.hadoop.http.HttpServer2.start(HttpServer2.java:827) at org.apache.hadoop.hdfs.server.namenode.NameNodeHttpServer.start(NameNodeHttpServer.java:142) at org.apache.hadoop.hdfs.server.namenode.NameNode.startHttpServer(NameNode.java:703) at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:590) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:762) at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:746) at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1438) at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504) Caused by: java.net.BindException: Address already in use at sun.nio.ch.Net.bind0(Native Method) at sun.nio.ch.Net.bind(Net.java:444) at sun.nio.ch.Net.bind(Net.java:436) at sun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:214) at sun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:74) at org.mortbay.jetty.nio.SelectChannelConnector.open(SelectChannelConnector.java:216) at org.apache.hadoop.http.HttpServer2.openListeners(HttpServer2.java:886) ... 8 more 2015-11-06 17:27:53,143 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1 2015-11-06 17:27:53,144 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at master.hadoop/127.0.0.1 ************************************************************/

技術(shù)問答
2015-11-06 09:37:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
Spark版本:1.6.1
Hadoop版本:2.6.2
HDFS模式為:HA(正常使用,沒有任何問題) fs.defaultFS hdfs://masters dfs.nameservices masters
使用Spark讀取HDFS文件,報錯Caused by: java.net.UnknownHostException: masters val line = sc.textFile( "hdfs://masters/user/hadoop/wordcount/input" )
嘗試解決方法:
1. 拷貝core-site.xml和hdfs-site.xml到$SPARK_HOME/conf/目錄下:失敗
2. 在$SPARK_HOME/conf/spark-default.conf添加:失敗 spark.files file:///home/hadoop/work/spark-1.6.1/conf/hdfs-site.xml,file:///home/hadoop/work/spark-1.6.1/conf/core-site.xml 不知道哪位大俠有這方面的經(jīng)驗(yàn)啊,給個答案吧。
技術(shù)問答
2016-06-22 14:18:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@幽燭 你好,想跟你請教個問題:你好請問一下關(guān)于那個“php圖表“的那個源代碼中為什么我在zend中include不了.class文件
謝謝!
技術(shù)問答
2015-12-10 22:05:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> zend studio 12.0導(dǎo)入php文件亂碼,一部分亂碼,一部分不亂嗎,但是使用dreameaver就顯示正常,不會出現(xiàn)亂碼現(xiàn)象。請問是怎么回事?
技術(shù)問答
2015-11-20 16:12:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 話說,好想點(diǎn)哪里那里就var_dump($variable) 啊!php已經(jīng)很簡單了,反而調(diào)試卻要手動寫,很麻煩.
技術(shù)問答
2014-06-07 21:38:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
@菜鳥中的小公雞 你好,想跟你請教個問題:
請教您當(dāng)時關(guān)于Thinkphp-foreach嵌套循環(huán)的問題怎么解決的 我也輸不出來內(nèi)層數(shù)據(jù) 百度查到您的問題和我一起 不知道您還記得么

{$v.name}更多>>



{$value.title}
06/06






謝謝 希望幫忙回答下 糾結(jié)了好久
技術(shù)問答
2015-07-02 15:32:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 各位大神請幫幫忙,剛用zendstudio不太熟悉,遇見你這個問題,請指教
技術(shù)問答
2015-03-17 09:22:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
Redmine 用戶手冊
基于Redmine 0.9 版本
作者: 蔣 鑫, 王 勝
公司: 北京群英匯信息技術(shù)有限公司
聯(lián)系: http://www.ossxp.com/
版本: 0.9.3-4
日期: 2010-05-26 17:05:32
目錄 1 說明 2 用戶賬號 3 登錄 4 注冊 5 項目概述 6 項目活動 7 問題跟蹤 7.1 問題列表 7.2 路線圖 7.2.1 版本概述 7.3 日歷 7.4 甘特圖 8 實(shí)時跟蹤 9 新聞 10 文檔 11 文件 12 討論區(qū) 13 Wikis 14 Redmine wiki的文本格式 14.1 鏈接 14.1.1 Redmine鏈接 14.1.2 wiki鏈接 14.1.3 鏈接到其他資源 14.1.4 轉(zhuǎn)意字符 14.1.5 外部鏈接 14.2 文本格式 14.2.1 字體樣式 14.2.2 內(nèi)嵌圖片 14.2.3 標(biāo)題 14.2.4 段落 14.2.5 塊引用 14.2.6 無序列表 14.2.7 有序列表 14.2.8 表格 14.2.9 內(nèi)容列表 14.2.10 宏(Macros) 15 版本庫 15.1 版本庫統(tǒng)計 16 項目配置
1 說明
關(guān)于手冊中方框標(biāo)記部分的說明 Note 是需要注意的部分。 Hint 是群英匯為Redmine擴(kuò)展的部分。
2 用戶賬號 我的賬號
我的賬號截圖
此界面可以修改用戶的姓名、郵件地址、語言、以及時區(qū)和接收郵件的設(shè)置。 郵件通知
郵件通知的下拉框選項有: 只收取我跟蹤或參與的項目的通知 收取我的項目的所有通知
你可以根據(jù)自己的需要選擇不同的郵件通知策略
同時,你也可以選種下拉框下面的那個復(fù)選框(不要發(fā)送對我自己提交的修改的通知),這樣就可以避免接收到你自己活動的郵件通知。 我的工作臺
我的工作臺截圖
該頁面用于顯示你所參與的項目的各種信息塊。 默認(rèn)情況下只有下面兩個模塊啟用: 指派給我的問題
提供一個跨項目的指派給當(dāng)前用戶的問題列表,顯示問題的ID,項目,跟蹤標(biāo)類型簽和主題。 已報告的問題
提供一個跨項目的由當(dāng)前用戶報告的問題列表,顯示問題的ID,項目,跟蹤標(biāo)簽類型和主題。 每一個用戶可以通過點(diǎn)擊"個性化定制本頁"的鏈接個性化我的工作臺。 然后用戶可以選擇哪些可用的模塊被顯示: 日歷
提供一個跨項目的每周日歷概述 文檔
提供一個跨項目的最近文檔概述 最近的新聞
提供一個跨項目的最近新聞概述 耗時
提供一個跨項目的關(guān)于當(dāng)前用戶最近7天工時的概述 跟蹤的問題
提供一個跨項目的由當(dāng)前用戶跟蹤的問題列表 忘記密碼
如果你忘記了密碼,可用點(diǎn)擊登錄界面上的"忘記密碼"鏈接, 然后填入你的郵箱地址, 點(diǎn)擊提交。 隨后你將收到一封郵件, 點(diǎn)擊該郵件里的那個超鏈接, 你將跳到一個修改用戶密碼的界面, 輸入新密碼以及確認(rèn)密碼。 這樣, 你就可以用剛才新建的密碼登錄系統(tǒng)了。 Note 管理員可以禁用該功能 如果你的賬號使用了外部認(rèn)證(如LDAP),同樣不能使用該功能。 因?yàn)橥獠空J(rèn)證的密碼存儲在LDAP中, Redmine不能修改LDAP里的信息。 注冊
點(diǎn)擊主頁右上角的"注冊"鏈接, 用戶可以自己注冊。 填寫好表單提交后你將收到一封激活賬號的郵件, 通過郵件里的鏈接, 可以激活你剛注冊的賬號。 Note 該功能需要管理員開啟"允許自注冊"功能, 并選擇通過郵件激活賬號
3 登錄
點(diǎn)擊主頁右上角的"登錄"鏈接
可跳到登錄頁面
輸入登錄名和密碼, 點(diǎn)擊登錄按鈕, 即可進(jìn)入系統(tǒng)。 .. hint:: 單點(diǎn)登錄功能 群英匯給Redmine添加了單點(diǎn)登錄的功能: 該功能主要是省去了多個應(yīng)用重復(fù)輸入登錄信息的麻煩, 免去了員工記憶多個賬號的煩惱。 加上單點(diǎn)登錄功能之后, 在一個應(yīng)用中登錄之后, 不用再次輸入登錄名和密碼就可以訪問其他應(yīng)用程序了(前提是你的所有應(yīng)用都支持單點(diǎn)登錄),這樣在一定程度上減少了密碼的暴露幾率, 提高了賬號的安全性。
4 注冊
該操作需要管理員開啟"允許用戶注冊"的功能 注冊截圖
注冊用戶需要填寫的字段包括: 登錄名, 密碼, 名字, 姓氏和郵箱, 以及可選的用戶語言字段。
注冊流程
根據(jù)管理員的設(shè)置, 用戶的賬號由以下幾種激活方式: 通過郵件認(rèn)證激活賬號
用戶注冊后, 將收到一封激活賬號的郵件, 通過點(diǎn)擊郵件里的鏈接, 就可以激活剛注冊的郵件。 手動激活賬號
用戶注冊后, 需要等待管理員手動激活剛注冊的賬號。 自動激活賬號
用戶注冊后, 直接可以用剛才注冊的賬號登錄系統(tǒng)。
5 項目概述 項目概述截圖
該頁面提供一個關(guān)于該項目的總體概述 左上角的問題跟蹤區(qū)域列出了目前項中每一種問題跟蹤標(biāo)簽的打開數(shù)量以及總共數(shù)量 在成員區(qū)域列出該項目組的所有成員 在最新新聞區(qū)域列出了項目的最新新聞
6 項目活動 項目活動截圖
該頁面列出了該項目所有活動的歷史記錄, 這些活動包括: 問題 變更 新聞 文檔 文件 Wiki編輯記錄 帖子 耗時
該頁面的右邊欄允許你選擇具體顯示哪類活動
如果你想要同時顯示子項目的活動, 那么你需要選種"子項目"復(fù)選框。 .. hint:: 修改查看項目活動的基準(zhǔn)時間 Redmine 將當(dāng)天的日期作為顯示項目活動的基準(zhǔn)時間, 當(dāng)你點(diǎn)擊"活動"選項卡時, 它會顯示前30天到當(dāng)天的活動。
這樣會出現(xiàn)一個問題: 當(dāng)項目連續(xù)30天沒有活動時, 項目活動首頁會出現(xiàn)空白頁。
群英匯的修改: 將最后一次活動時間作為基準(zhǔn)時間, 這樣就避免了上述問題的發(fā)生。
7 問題跟蹤
問題是Redmine的核心業(yè)務(wù)。 一個問題綁定到一個項目, 由某一用于創(chuàng)建, 可以關(guān)聯(lián)到某一版本, 等等。 查看某一問題
在問題列表頁面點(diǎn)擊某一問題的鏈接, 可以查看該問題的具體描述。 相關(guān)的問題
允許開發(fā)者將某一問題與其他問題建立關(guān)聯(lián), 從而起到了刪除重復(fù)問題, 簡化工作流的作用。 當(dāng)前版本允許建立的關(guān)聯(lián)類型有: 關(guān)聯(lián)到 重復(fù)
如果問題B重復(fù)于A,那么關(guān)閉A將自動關(guān)閉B。 阻擋
如果問題B阻擋A,A無法關(guān)閉,除非B已經(jīng)關(guān)閉。 優(yōu)先于
如果A優(yōu)先于B,那么將B的起始日期自動設(shè)置為A的截至日期+延遲天數(shù)+1。 跟隨于
問題B跟隨于A(例如A截至于21/04,B開始于22/04),這時如果將A的截至日期延遲2天,那么B的起始和截至日期將自動推遲2天。
點(diǎn)擊問題顯示頁面相關(guān)問題區(qū)域的"新增"鏈接, 可根據(jù)具體的情況建立不同類型的問題關(guān)聯(lián)。
管理員可以定義添加和修改問題關(guān)聯(lián)的權(quán)限 跟蹤者
點(diǎn)擊問題顯示頁面跟蹤者區(qū)域的"新增"鏈接, 在下拉列表里選擇跟蹤者
管理員可以定義添加和刪除跟蹤者的權(quán)限 相關(guān)修訂
當(dāng)提交代碼時在提交注釋中引用某一問題, 那么稍后將會在該問題的顯示頁面中出現(xiàn)對于該次提交的描述信息。
相關(guān)修訂截圖
具體那些使用那些關(guān)鍵字, 可以咨詢你們的管理員, 看他是如何配置的。 新建問題
要創(chuàng)建新的問題, 你需要有新建問題的權(quán)限
創(chuàng)建問題時, 最重要的字段是跟蹤標(biāo)簽字段, 它決定了問題的類型。
默認(rèn)情況下, Redmine有三種跟蹤標(biāo)簽: 缺陷 功能 支持 更新已經(jīng)存在的問題
要更新問題的屬性, 你需要有編輯問題的權(quán)限。 7.1 問題列表 概述
點(diǎn)擊"問題"選項卡, 默認(rèn)你將看到該項目中所有處于打開狀態(tài)的問題。 過濾器的應(yīng)用
默認(rèn)情況下, 問題列表顯示了所有處于打開狀態(tài)的問題。 你可以添加過濾器, 點(diǎn)擊"應(yīng)用"鏈接刷新問題列表, 點(diǎn)擊"清除"鏈接刪除設(shè)置的濾器。
你可以通過點(diǎn)擊那個小"+"號按鈕, 為過濾器字段選擇多個值。 這時會出現(xiàn)一個選擇列表, 按住"ctrl"后, 可選擇多個值。 自定義查詢
當(dāng)刷新頁面后, 剛設(shè)置的過濾器就會消失, 你可以通過點(diǎn)擊"保存"鏈接保存你設(shè)置的過濾器, 從而建立自定義查詢。
在新建自定義查詢的界面輸入自定義查詢的名稱, 以及過濾器和其他屬性的設(shè)置。
點(diǎn)擊保存之后, 新建的自定義查詢將會出現(xiàn)在問題列表界面的右邊欄中。 快捷菜單
在問題列表的某一個問題上, 點(diǎn)擊鼠標(biāo)右鍵, 將彈出一個快捷菜單, 用于便捷編輯問題。
快捷菜單包含的選項有: 編輯 狀態(tài) 跟蹤標(biāo)簽 優(yōu)先級 目標(biāo)版本 指派給 完成度 登記工時 跟蹤者 副本 復(fù)制 移動 刪除 批量編輯問題
在問題列表界面, 你可以通過選擇多個復(fù)選框, 也可以按住"ctrl"鍵的同時選擇多個問題, 然后點(diǎn)擊右鍵, 同樣會彈出一個快捷菜單, 可以對選中的多個問題同時編輯。 你也可以點(diǎn)擊復(fù)選框上面的那個"對號"圖標(biāo), 全選問題或則撤銷全選。 邊欄
問題列表的右側(cè)邊欄提供了幾種不同的功能鏈接: 問題區(qū)域 查看所有問題
該鏈接用于從自定義查詢頁面跳回問題列表頁面 摘要
從項目級別上查看問題的概述 日歷
日歷上顯示問題以及目標(biāo)版本, 用于把握項目的進(jìn)度。 甘特圖
顯示問題與時間的的二維圖表, 從而清晰地展現(xiàn)了項目的進(jìn)度與當(dāng)前的主要任務(wù)。 自定義查詢區(qū)域 (如果你建立了自定義查詢)
該區(qū)域列出了所有自定義查詢的鏈接 7.2 路線圖
路線圖提供了一個更高級別的基于項目版本的對于整個問題跟蹤系統(tǒng)的概述, 它可以幫助制定項目計劃, 管理項目開發(fā)。 概述
點(diǎn)擊"路線圖"選項卡, 你就可以查看當(dāng)前項目的進(jìn)展?fàn)顟B(tài): 版本名稱 版本的完成日期 進(jìn)度條
根據(jù)問題狀態(tài)所占的百分比(即問題的完成度), 統(tǒng)計出目標(biāo)版本的完成度。 目標(biāo)版本相關(guān)連的問題列表 管理路線圖
如果你的權(quán)限合適, 你可以為版本添加一個wiki頁面(參考 項目版本 ), 用于描述當(dāng)前版本的一些主要事件。 邊欄
路線圖頁面的右邊欄為你提供了以下功能: 可以根據(jù)需要, 選擇路線圖上顯示哪些跟蹤標(biāo)簽。 可以根據(jù)需要, 選擇是否顯示已經(jīng)完成的版本 所有版本的鏈接 7.2.1 版本概述
版本概述提供了一個詳細(xì)的關(guān)于當(dāng)前版本的狀態(tài)描述。 包括: 版本名稱 版本完成時間 版本的進(jìn)度條 wiki(如果管理員配置了wiki頁面) 相關(guān)的問題列表 時間跟蹤區(qū)域 預(yù)期時間 耗時 分組顯示區(qū)域
可供分組顯示問題的選項有: 類別 跟蹤標(biāo)簽 優(yōu)先級 作者 指派給 7.3 日歷 概述
在問題列表頁面, 點(diǎn)擊右邊欄的"日歷"鏈接, 即可進(jìn)入日歷界面。
日歷提供了一個按月份顯示的項目預(yù)覽。 在這里你可以看到一個任務(wù)狀態(tài)的起止日期。 過濾器
像Redmine提供的其他視圖一樣, 你可以通過設(shè)置過濾器從而決定日歷圖上顯示的內(nèi)容。過濾器的用法可以參見 過濾器 7.4 甘特圖
在問題列表頁面, 點(diǎn)擊右邊欄的"甘特圖"鏈接, 即可進(jìn)入甘特圖界面。
甘特圖顯示問題的起止日期以及版本的截至日期 甘特圖截圖
8 實(shí)時跟蹤
實(shí)時跟蹤允許你跟蹤解決某一具體問題所花費(fèi)的時間。 通過填寫預(yù)期時間, 項目經(jīng)理可以根據(jù)你的進(jìn)度更好地制定項目計劃。 同時實(shí)時跟蹤與項目成員建立了關(guān)聯(lián), 從而有效的度量了每個成員的工作情況。 給問題登記工時
通過點(diǎn)擊問題瀏覽頁面上"登記工時"的鏈接, 可以給該問題登記工時。
預(yù)計耗時字段可填入的時間格式如下: 整數(shù)格式的小時和分鐘: 1, 1h, 1hour, 2hours, 30m, 30min, 1h30, 1h30m, 1:30 小數(shù)格式的小時: 1.5 1,5(等于1h30)
你也可以在更新問題時填入工時 項目級別的登記工時
如果登記工時時問題字段為空, 那么該工時就屬于整個項目的工時。
9 新聞
在"新聞"選項卡下, 你可以發(fā)布關(guān)于項目的新聞條目, 甚至任何你喜歡的新聞條目。
新聞條目包含的字段有: 標(biāo)題 概述
概述將和標(biāo)題一起被顯示在項目概述頁面的 最近新聞 部分, 而詳細(xì)信息只有點(diǎn)擊了該新聞條目時才能看到。 詳細(xì)信息
如果你有創(chuàng)建新聞的權(quán)限, 那么你就可以添加/編輯/刪除新聞。
10 文檔
在這里可以書寫不同類型的文檔, 默認(rèn)有兩種文檔類型: 用戶文檔 技術(shù)文檔
管理員可以添加文檔類型
11 文件
在這里可以上傳項目需要用到的其他資源, 如圖片, 視頻等等。
12 討論區(qū)
討論區(qū)給項目成員之間提供一個交流的平臺。 管理員根據(jù)需要可以創(chuàng)建不同類別的討論區(qū)。 討論區(qū)列表頁面顯示的內(nèi)容: 話題的總數(shù) 留言的總數(shù) 最后留言的鏈接 發(fā)起一個話題
點(diǎn)擊右上角的"新貼"鏈接, 進(jìn)入新建貼子的頁面, 輸入主題和內(nèi)容, 點(diǎn)擊創(chuàng)建按鈕, 一個新的話題就發(fā)起了。
話題有兩個可選選項: 置頂(sticky): 如果選中, 表示該話題將會在討論區(qū)列表置頂, 并加粗顯示 鎖定(locked): 如果選中, 表示該貼不允許用戶跟貼
13 Wikis 創(chuàng)建一個新的Wiki頁面
在任何一個wiki頁面,僅僅需要添加一個你想要創(chuàng)建的新頁面的鏈接。
[[MyNewPage]]
保存當(dāng)前頁面,點(diǎn)擊剛添加的鏈接,恭喜:你已經(jīng)成功創(chuàng)建了一個名為"MyNewWikiPage"的新頁面。 保護(hù)wiki頁面
如果你擁有保護(hù)wiki頁面的權(quán)限,你可以點(diǎn)擊"鎖定"鏈接保護(hù)該Wiki頁面。
已經(jīng)鎖定的wiki頁面只允許擁有保護(hù)wiki頁面權(quán)限的用戶編輯。
擁有此權(quán)限的用戶同樣可以為該頁面解鎖。 Wiki頁面的歷史
Redmine保存每一次wiki頁面的改動歷史。 通過點(diǎn)擊"歷史"鏈接你可以瀏覽這些變更。
點(diǎn)擊變更的序列號可查看某一個具體版本的頁面信息。
你可以通過點(diǎn)擊"回退到這個版本"的鏈接回退該頁面到先前的版本。
14 Redmine wiki的文本格式
Redmine默認(rèn)使用Textile作為wiki的文本格式過濾器, 當(dāng)然你也可以下載其他文本格式過濾器插件(Markdown, reST等)。 以下介紹的語法都是基于Textile 。 14.1 鏈接 14.1.1 Redmine鏈接
Redmine允許在任何wiki文本格式里引用問題,變更集和wiki頁面的超鏈接。 鏈接到問題: #124 (顯示為#124, 如果此問題已經(jīng)關(guān)閉則顯示刪除線)。 鏈接到變更集: r758 (顯示為r758)。 使用非數(shù)字的哈希值鏈接到變更集: commit:c6f4d0fd(顯示c6f4d0fd)。 14.1.2 wiki鏈接 [[Guide]] 顯示一個鏈接到"Guide"的鏈接: Guide [[Guide|Use manual]] 顯示指向同一頁面的鏈接,鏈接顯示的文本是: Use manual [[Guide#Use-guide|Use guide]] 顯示指向同一頁面頭的鏈接,鏈接顯示的文本是: Use guide
可以加入指向其它項目wiki頁面的鏈接 [[sandbox:some page]] 顯示一個指向Sandbox項目名稱為"Some page"的wiki頁面的鏈接。 [[sandbox:]] 顯示一個指向Sandbox項目Wiki主頁面的鏈接。
如果Wiki頁面不存在,則連接將顯示為紅色。 14.1.3 鏈接到其他資源 文檔 document#17 (鏈接到ID為17的文檔) document:Geetings (鏈接到標(biāo)題為"Geetings"的文檔) document:"Some document" (當(dāng)文檔標(biāo)題含有空格時需要使用雙引號) 版本 vesion#3 (鏈接到ID為3的版本) vesion:1.0.0 (鏈接到名稱為"1.0.0"的版本) vesion:"1.0 beta 2" (當(dāng)版本名稱含有空格時需要使用雙引號) 附件 attachment:file.zip (鏈接到當(dāng)前頁面名稱為 file.zip 的附件) 到目前為止, 只能引用當(dāng)前頁面的附件(如果您在編輯問題,則只能引用此問題的附件) 版本庫 souce:some/file 鏈接到項目版本庫的 /some/file 文件 souce:some/file@52 鏈接到項目版本庫 /some/file 文件的第52版本 souce:some/file#L120 鏈接到項目版本庫 /some/file 文件的第120行 souce:some/file@52#L120 鏈接到項目版本庫 /some/file 文件的第52版本的第120行 expot:some/file 強(qiáng)制顯示該文件的下載鏈接 14.1.4 轉(zhuǎn)意字符
如果您不希望Redmine將上述標(biāo)記解釋為鏈接,可以在它們前面添加一個感嘆號:! 14.1.5 外部鏈接
HTTP URLs和郵件地址將自動轉(zhuǎn)換為可點(diǎn)擊的鏈接
如果你想指定鏈接顯示的文本,你可以使用標(biāo)準(zhǔn)的textile語法。 "群英匯":http://ossxp.com
14.2 文本格式
對于標(biāo)題、粗體、表格、列表, Redmine支持Textile語法。參考 http://www.textism.com/tools/textile/ 上對使用這些特征的詳細(xì)信息。
下面列出一些例子: 14.2.1 字體樣式 *bold* 加粗
_italic_ 斜體
*_bold italic_* 加粗并斜體
+underline+ 下劃線
-strike-through- 刪除線
14.2.2 內(nèi)嵌圖片 !image_url! 顯示地址為image_url的圖片(textile語法) !>image_url! 圖片右懸浮 !{width:300px}image_url! 設(shè)置圖片的顯示寬度
如果你的wiki頁面有圖片附件,你可以使用文件名:!attached_image.png!顯示它。 14.2.3 標(biāo)題 h1. 一級標(biāo)題 h2. 二級標(biāo)題 h3. 三級標(biāo)題 14.2.4 段落 p>. 右對齊 p=. 居中 14.2.5 塊引用
段落以 bq. 開始 14.2.6 無序列表 * Item 1
* Item 2
** Item 21
** Item 22
* Item 3
14.2.7 有序列表 # Item 1
# Item 2
# Item 3
## Item 3.1
## Item 3.2
14.2.8 表格 |_.UserID|_.Name|_.Group|
|\3=.IT|
|1|張三|/2.Users|
|2|李四|
|3|王五|Admin|
14.2.9 內(nèi)容列表 {{toc}} => 內(nèi)容列表左對齊
{{>toc}} => 內(nèi)容列表右對齊
14.2.10 宏(Macros)
Redmine有以下內(nèi)置宏: 子頁面
顯示子頁面列表。 當(dāng)沒有參數(shù)時,將顯示當(dāng)前wiki頁面的子頁面。 例如: {{child_paegs}} 該功能只有在wiki頁面有效
{{child_pages(Foo)}} 列出Foo頁面的子頁面
{{child_paegs(Foo,parent=1)}} 和上面的功能一樣,只不過多了一個鏈到Foo頁面的鏈接
hello_world
一個宏示例 include
包含一個wiki頁面。例如: {{include(Foo)}}
或者包含一個指定項目的wiki頁面: {{include(projectname:Foo)}}
macro_list
顯示所有可用宏的列表,以及關(guān)于宏的描述。 代碼高亮顯示
代碼高亮顯示依賴 CodeRay http://coderay.rubychan.de/ ,它是一個完全用Ruby編寫的快速的語法高亮顯示庫。 目前支持的語言: c,html,javascript,rhtml,ruby,scheme,xml。
你可以用下面的語法高亮顯示ruby代碼:
 
加入你的代碼

Note
此功能僅在Wiki頁面有效
15 版本庫
點(diǎn)擊"版本庫"選項卡, 你可以瀏覽項目的版本庫以及最近的提交。
你可以通過打開目錄前面的"+"按鈕, 展開目錄。
你也可以點(diǎn)擊目錄鏈接進(jìn)入該目錄。
點(diǎn)擊某一修訂號你可以查看該次提交的詳細(xì)信息。
想要瀏覽已知提交號的某一次提交的具體信息, 你可以將該提交號直接輸入右上角的輸入框里, 按回車鍵即可查看。 15.1 版本庫統(tǒng)計
Redmine生成兩種關(guān)于變更和修訂數(shù)量的版本庫圖片。 上面的一幅按月份顯示變更和修訂數(shù)量; 下面的一幅按提交者顯示變更和修訂數(shù)量。
名詞解釋 修訂 是版本庫的提交次數(shù), 顯示為橘紅色。 變更 是對版本庫中文件的修改次數(shù), 顯示為藍(lán)色。
16 項目配置
該界面提供項目級別的配置, 可用的配置選項卡如下: 信息
在這里可以設(shè)置 項目名稱 上級項目
指定該項目的父項目
在Redmine 0.9 版本之前, 只允許2級嵌套; 0.9版本之后, 可以無限嵌套。 項目描述 標(biāo)識
由于Redmine支持多項目, 而且采用REST架構(gòu), 所以需要一個URL的唯一標(biāo)識符。 這個值在創(chuàng)建項目時填寫, 且一旦創(chuàng)建成功就不能修改。 主頁
主頁鏈接會顯示在項目概述頁面中 是否公開
如果選中, 該項目將允許所有用戶瀏覽, 包括非項目成員的用戶。
如果不選, 只有項目成員才有權(quán)限訪問。 跟蹤標(biāo)簽
在這里可以設(shè)置開啟哪些跟蹤標(biāo)簽, 默認(rèn)可用的有三種: 錯誤, 功能和支持。
管理員可以在管理界面添加跟蹤標(biāo)簽的類型。 模塊
在這里可以設(shè)置該項目開啟的功能模塊 成員
在這里可以指定項目的成員, 以及他們的角色。
Redmine 0.9之后可以以組為操作單元, 給組賦予角色, 添加到項目中。 這樣該組的所有成員都成為該項目的成員, 且屬于相同的角色, 擁有一樣的權(quán)限。 版本
項目版本可以對變更進(jìn)行跟蹤和計劃。 你可以給問題指定目標(biāo)版本, 然后在路線圖中就能看到與改版本關(guān)聯(lián)的問題列表。
版本包括的屬性: 名稱 描述 狀態(tài)
這個屬性是Redmine-0.9添加的, 這些狀態(tài)控制問題如何被指定目標(biāo)版本。 打開
默認(rèn)值, 沒有限制 鎖定
不能再給該版本指定新的問題 關(guān)閉
不能再給該版本指定新的問題, 而且不能重新打開已經(jīng)指定目標(biāo)版本的問題。 Wiki頁面
可以將該版本的主要事件寫入Wiki里, 以供瀏覽該版本時顯示 可選屬性 。 日期
版本的完成日期 可選屬性 共享
這個屬性是Redmine-0.9添加的, 該屬性決定該版本是否能被其他項目共享, 從而使其他項目的問題也可以指定到該版本 可選屬性 。 不共享 與子項目共享
所有子孫項目 與項目繼承層次共享
祖先以及子孫項目 與項目樹共享
根項目和所有子孫項目(與上面的等同) 與所有項目共享
私有項目與公開項目共享版本后, 私有項目的名稱將能夠別所有用戶看到。
在版本列表頁面點(diǎn)擊"關(guān)閉已完成的版本"鏈接, 那些處于完成狀態(tài)的版本(到達(dá)截至日期并且沒有處于打開狀態(tài)的問題)將自動關(guān)閉。 Hint
指定默認(rèn)目標(biāo)版本
在這里可以給項目指定默認(rèn)目標(biāo)版本, 這是群英匯為Redmine添加的功能。
這樣可以省去在給項目創(chuàng)建問題時指定目標(biāo)目標(biāo)版本的繁瑣操作。
群英匯的擴(kuò)展靈活地與Redmine指定目標(biāo)版本結(jié)合, 當(dāng)你新建問題時, 如果感覺該問題不應(yīng)該指定到默認(rèn)的目標(biāo)版本, 你也可以重新選擇其他的版本。 問題類別
問題類別功能可以有效組織管理項目的問題。
問題類別的屬性: 名字 必填字段 指派給
新建屬于該類別的問題將自動指派給該項目成員 可選字段 。 wiki
每一個項目擁有它自己的wiki。 版本庫
每一個項目能跟一個版本庫(SCM)建立關(guān)聯(lián)。 一旦版本庫配置成功, 你就可以點(diǎn)擊"版本庫"選項卡, 瀏覽版本庫的變更集了。 版本庫的變更集也能在活動頁面瀏覽到。 討論區(qū)
每一個項目可以有一個或者多個討論區(qū)。 討論區(qū)的屬性有: 名稱 描述 活動
默認(rèn)情況下, 活動階段有"開發(fā)"和"測試"兩種類型, 管理員可以根據(jù)需要創(chuàng)建新的活動階段。
只有選中的活動階段才會出現(xiàn)在登記工時頁面的下拉框中。
技術(shù)問答
2010-06-22 10:49:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
要求開源、免費(fèi)、可以自己架設(shè)獨(dú)立運(yùn)行;禪道這種開源版有些功能沒有就算了,比如甘特圖;之前用過redmine,現(xiàn)在看哪個最好呢?謝謝各位!
技術(shù)問答
2018-08-25 14:39:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
如題,在導(dǎo)出png圖的時候,數(shù)字英文都可以正常顯示,但中文全部變成了亂碼(我用的版本是 bitnami下載的 Redmine v2.5.1 for windows版本。 )
有按照這個貼的方法改中文路徑,但還是不行。
http://www.baidu.com/link?url=Cn85gHHF3U3kd1xEQSIjRM7N5XRLwIF3cCS0dIGLD0oEhAnlzgVWmgn7yIlgw_cVfgTRcjcOgywOO2Qy-I45ukl2srGp9lkTep58ypu6i37NKnmn4E1FF39yDHuDkrdjvj8XJVUxz_YiYRjw5l9rLq
請問各位大俠有遇到過或解決過這個問題嗎?
技術(shù)問答
2014-05-13 19:16:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
如題?問一下,新建bug時 那個富文本編輯器看上去有加圖片的按鈕,但為何點(diǎn)擊后就兩個“!”?
技術(shù)問答
2014-07-05 21:26:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
開源項目小組也可以看做是一個團(tuán)隊,對于團(tuán)隊共同完成的項目,組員是通過什么工具來進(jìn)行協(xié)作和交流的呢?
我所知道的redmine是個很不錯的工具,有項目管理、團(tuán)隊日歷、甘特圖、任務(wù)追蹤,而且還能和bugzilla互聯(lián)。但是對于軟件開發(fā)的流程貌似沒有什么,redmine更偏重于是一個項目管理和任務(wù)管理的工具,而不是團(tuán)隊成員交流的工具。
技術(shù)問答
2010-05-03 21:41:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> Redmine怎樣去關(guān)閉一個bug?有關(guān)閉按鈕嗎?還是要特定的角色才能關(guān)閉?
技術(shù)問答
2015-01-19 12:26:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
我的redmine版本是3.0.4,我是使用docker安裝的,我在安裝完redmine之后,在瀏覽器中使用serverip:port來訪問redmine時能很好的使用。在使用nginx反向代理redmine,但是我在使用反向代理之后訪問redmine時總是會出現(xiàn)問題,這個問題是
Page not found
The page you were trying to access doesn't exist or has been removed.
Back
大神們!求解
技術(shù)問答
2015-07-23 16:29:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
環(huán)境描述:
1、內(nèi)網(wǎng)開發(fā),不連接互聯(lián)網(wǎng);
2、人數(shù)低于100人,后臺有windows服務(wù)器;
3、redmine 3.2.1;
4、郵件服務(wù)軟件選擇:
試了U-mail ,CMail,MDaemon,DreamServer;最終選擇了DreamServer。
理由:簡單,夠用。其他的功能太多,用不上,浪費(fèi)資源,增加維護(hù)難度。

配置要點(diǎn):
redmine3.2.1 目錄 搜索 configuration.yml,修改其中郵件配置;
1、windows服務(wù)器防火墻開通DreamServer權(quán)限;
2、郵件發(fā)送方式設(shè)置為異步,async_smtp;
3、注釋其他不用的郵件配置;
4、地址、域名、用戶名、密碼需添加單引號。
范例: delivery_method: : async_smtp async_smtp_settings: address: '192.168.1.1' port: 25 domain: 'xxx.org' authentication: :login user_name: 'xxxxx' password: '123456'
技術(shù)問答
2016-11-16 11:58:00
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
操作系統(tǒng) centos 6.2
安裝rvm curl -L get.rvm.io | bash -s stable
說明下, 如果用root帳戶操作, 默認(rèn)會將 rvm 裝到 /usr/local/rvm 下. 其它帳號則在 ~/ 目錄下.
加載 rvm : source ~/.rvm/scripts/rvm
好了, 裝ruby. rvm install 1.9.3
也可以用 rvm list known
列出可安裝的 ruby 版本, 如安裝1.9.2. rvm install 1.9.2
開始裝 rails. 首先: rvm gemset create rails232
你這是要干嘛? 這一步, 并沒有安裝rails, 只是設(shè)置一個, 我認(rèn)為的命名空間而已.
有啥用啊, 搞這一步? 想想, redmine1.4.2 版本目前只支持 rails2, 我得裝個rails2, 那假如有其它項目需要rails3怎么辦?
看看下面幾個命令你就會明白: rvm use 1.9.3@rails232 gem install rails --version='2.3.2'
建另一個: rvm gemset create rails313 rvm use 1.9.3@rails313 gem install rails --version='3.1.3'
明白了吧. ruby版本加gemset確定一個"環(huán)境".
好勒, 裝了這么多, 我總得有個默認(rèn)的環(huán)境吧. rvm use 1.9.3 --default
這就可以設(shè)置默認(rèn)使用 ruby 1.9.3. rvm use 1.9.3@rails313 --default
觸類旁通.
那.... , 我有的項目需要rails2, 有些需要rail3, 有些需要 1.8, 怎么辦? 每次都要手動切換?
可以在你的項目根目錄建個文件: rvm use 1.9.3@rails313 >> .rvmrc
這樣, 每次進(jìn)入該目錄, 就會自動切成 1.9.3@rails313 之類的你設(shè)置的環(huán)境.
好了, 搞到這里對我夠用了, 不打算深入, 有需要現(xiàn)學(xué)也應(yīng)該沒問題. 你想深入, 可以看這里:
https://rvm.io/rvm/install/



技術(shù)問答
2012-05-17 19:18:00
3334353637383940414243