HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
流程定義如下:
在 實(shí)現(xiàn) JavaDelegate 接口類 UpdateFlowServiceTask的
@Override
public void execute(DelegateExecution execution ) throws Exception {
if ( noHitch == false ){//如果有故障
orderEventService .updateState( orderid , 3);
//流程掛起
try {
runtimeService.suspendProcessInstanceById(processInstanceId);
} catch (Exception e ){
logger .error( "掛起流程異常" , e );
}
}
}
執(zhí)行上述代碼后會(huì)報(bào)為什么報(bào)找不到這個(gè)流程實(shí)例id,而且 該流程實(shí)例已經(jīng)是suspened狀態(tài)了,而相應(yīng)的數(shù)據(jù)庫表沒有數(shù)據(jù)。
請大家?guī)兔鉀Q下這個(gè)問題。非常感謝,一直困擾了很久了。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
activiti版本5.22,定義了個(gè)usertask,分出兩條flow,一條flow的condition是#{agree==1},另一條是#{agree==2},
代碼如下:
Task task = taskService.createTaskQuery().processInstanceId("15001").singleResult();
taskService.setVariableLocal(task.getId(), "agree", 1);
taskService.complete(task.getId());
第三行報(bào)錯(cuò),說找不到agree:localVariable不是這么用的嗎?
org.activiti.engine.ActivitiException: Unknown property used in expression: #{agree==1}
Caused by: org.activiti.engine.impl.javax.el.PropertyNotFoundException: Cannot resolve identifier 'agree'
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
情況介紹:
已經(jīng)把a(bǔ)ctiviti版本由5到7換了個(gè)遍。shiro版本也換了個(gè)遍。。。都報(bào)一樣的錯(cuò),多次嘗試無果。。嚴(yán)重懷疑與shiro有關(guān)。但又不想撤掉Shiro,大佬們有沒有類似的整合有如下報(bào)錯(cuò)的: org.springframework.beans.factory.UnsatisfiedDependencyException: Error creating bean with name 'methodValidationPostProcessor' defined in class path resource [org/springframework/boot/autoconfigure/validation/ValidationAutoConfiguration.class]: Unsatisfied dependency expressed through method 'methodValidationPostProcessor' parameter 0; nested exception is org.springframework.beans.factory.UnsatisfiedDependencyException: Error creating bean with name 'shirFilter' defined in class path resource [com/example/demo/config/shiro/ShiroConfig.class]: Unsatisfied dependency expressed through method 'shirFilter' parameter 0; nested exception is org.springframework.beans.factory.BeanCreationException: Error creating bean with name 'securityManager' defined in class path resource [com/example/demo/config/shiro/ShiroConfig.class]: Bean instantiation via factory method failed; nested exception is org.springframework.beans.BeanInstantiationException: Failed to instantiate [org.apache.shiro.mgt.SecurityManager]: Factory method 'securityManager' threw exception; nested exception is org.springframework.beans.factory.UnsatisfiedDependencyException: Error creating bean with name 'customRealm': Unsatisfied dependency expressed through field 'userDao'; nested exception is org.springframework.beans.factory.UnsatisfiedDependencyException: Error creating bean with name 'userDao' defined in file [D:\MyProject\spring-demo\target\classes\com\example\demo\mapper
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
OSCHINA 本期高手問答( 1月 23 日- 1月 29日)我們請來了 @咖啡兔 (閆洪磊)為大家解答關(guān)于Activiti方面的問題。
閆洪磊 @咖啡兔 資深軟件開發(fā)工程師和架構(gòu)師,為 Activiti 貢獻(xiàn)了大量代碼,為 Activiti 在中國的推廣與普及做了大量的工作,在社群中有很高的威望和知名度,被稱為中國 Activiti 領(lǐng)域的第一人。多年來一直從事 OA 、 ERP 等系統(tǒng)的開發(fā)與架構(gòu)設(shè)計(jì)工作,持續(xù)關(guān)注并深入研究工作流引擎,目前就職于小馬購車,擔(dān)任架構(gòu)師一職,并負(fù)責(zé)公司內(nèi)部工作流平臺(tái)的建設(shè)工作。
Activiti 是一個(gè)針對企業(yè)用戶、開發(fā)人員、系統(tǒng)管理員的輕量級工作流業(yè)務(wù)管理平臺(tái)。其核心是使用 Java 開發(fā)的快速、穩(wěn)定的 BPMN 2.0 流程引擎。它可以運(yùn)行在任何類型的 Java 程序中,例如服務(wù)器、集群、云服務(wù)等,可以完美地與 Spring 集成,設(shè)計(jì)非常簡約。 Activiti 在全球得到了廣泛的應(yīng)用,在中國也不例外,已經(jīng)成為目前最主流的流程引擎。
為了鼓勵(lì)踴躍提問, @ 華章圖書 會(huì)在問答結(jié)束后從提問者中抽取 5 名幸運(yùn)會(huì)員贈(zèng)予《 Activiti 實(shí)戰(zhàn) 》一書。
購買鏈接: http://product.dangdang.com/23622065.html
OSChina 高手問答一貫的風(fēng)格,不歡迎任何與主題無關(guān)的討論和噴子。
下面歡迎大家就 Activiti 方面問題向 @咖啡兔 (閆洪磊) 提問,請直接回帖提問。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
有個(gè)如下圖的activiti并發(fā)網(wǎng)關(guān),流程走到網(wǎng)關(guān)后,ly2和ly3同時(shí)受到審批請求,如果ly3審批同意后,ly2審批不同意,直接調(diào)用將task指向end終點(diǎn),正常來說流程應(yīng)該結(jié)束了,但是我查看act_ru_execution表的時(shí)候,還有一條join網(wǎng)關(guān)execution記錄,這樣就導(dǎo)致我流程結(jié)束監(jiān)聽事件沒執(zhí)行,請問有什么辦法么?ly3審批同意,ly2直接拒絕,結(jié)束流程?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
activiti5.16 畫流程圖出現(xiàn)的問題:
設(shè)計(jì)器里的:
方法: public InputStream addProcTrace(String businessKey, String procdefKey) throws Exception { ProcessInstance processInstance = runtimeService.createProcessInstanceQuery().processInstanceBusinessKey(businessKey).processDefinitionKey(procdefKey).singleResult(); BpmnModel bpmnModel = repositoryService.getBpmnModel(processInstance.getProcessDefinitionId()); //得到流程正在執(zhí)行的環(huán)節(jié) List activeIds = runtimeService.getActiveActivityIds(processInstance.getId()); //打印流程圖 InputStream in = processEngine.getProcessEngineConfiguration().getProcessDiagramGenerator().generateDiagram(bpmnModel, "PNG",activeIds, Collections.emptyList(), processEngineConfiguration.getActivityFontName(), processEngineConfiguration.getLabelFontName(), processEngineConfiguration.getClassLoader(), 1.0); return in; }
并且流程線上的name也沒有顯示出來
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
在使用Flowable表單編輯器的時(shí)候,沒有找到dropdown的key/value在哪里輸出,而是只有一個(gè)框,如下:
然后我試了一下,讀取這個(gè)表單的model,發(fā)現(xiàn)只有一個(gè)name屬性,而沒有id值
請問這個(gè)id是在哪里輸出的,或者有其它方式將這個(gè)選項(xiàng)填寫到前臺(tái)的select中嗎?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
這個(gè)是在 編輯的時(shí)候樣式 ,保存過后傳輸?shù)?svg_xml 是編輯時(shí)候的樣式
這個(gè)是部署時(shí)候的樣式,又變回了默認(rèn)樣式小金人,跟代碼看了很久也米有發(fā)現(xiàn)問題 懇求大佬解惑
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
如圖,已經(jīng)獲取到想爬取的網(wǎng)址信息,在process那邊也獲取的到。
但是addTargetRequests這些網(wǎng)址,就會(huì)又打開了,怎么能不打開這些單個(gè)的網(wǎng)址了?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
運(yùn)行后報(bào)錯(cuò)stale element reference: element is not attached to the page document
只能打開第一頁,之后頁碼不會(huì)打開。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
在中國開源搜索關(guān)鍵字,存在翻頁時(shí),獲取到了翻頁的頁碼,但是那些頁碼直接打開,跳轉(zhuǎn)到的是第一頁內(nèi)容,獲取不到之后的網(wǎng)頁鏈接
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
spring boot 啟動(dòng)加載默認(rèn)的rabbitmq配置,運(yùn)行過程中通過接口獲取新的rabbitmmq連接信息,連接新的rabbitmq。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
隊(duì)列已經(jīng)持久化了,也有內(nèi)容了。
重啟服務(wù)后,隊(duì)列名稱在,但是內(nèi)容沒了。
望指教!
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
websoket 集群實(shí)現(xiàn)
但是發(fā)現(xiàn) RabbitMQ 視乎沒有 這種訂閱發(fā)布模式 , 不熟悉 RabbitMQ 不知道怎么實(shí)現(xiàn) ,求大佬指導(dǎo)
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> rabbitTemplate.convertAndSend(exchange, routingKey, message, correlationData);
我們在send的時(shí)候指定了一個(gè)消息id
如何在接收時(shí)拿到呢?
求解答~扔個(gè)文檔過來也行?。?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
配置了 第二個(gè)MQ 以后, 之前代碼里面的 第一個(gè)MQ 好像也被連到這個(gè)來了, 請問這個(gè)怎么處理呢?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
用spring 框架集成rabbitmq,作為消費(fèi)者,服務(wù)啟動(dòng)時(shí),一直報(bào)錯(cuò),以前也是這么配置的沒有問題。大家有遇到過嗎?
2018-12-03 14:30:33,727 [AMQP Connection 192.168.145.174:5672] ERROR com.rabbitmq.client.impl.ForgivingExceptionHandler 124 log An unexpected connection driver error occured
java.net.SocketException: socket closed
at java.net.SocketInputStream.socketRead0(Native Method)
at java.net.SocketInputStream.socketRead(SocketInputStream.java:116)
at java.net.SocketInputStream.read(SocketInputStream.java:170)
at java.net.SocketInputStream.read(SocketInputStream.java:141)
at java.io.BufferedInputStream.fill(BufferedInputStream.java:246)
at java.io.BufferedInputStream.read(BufferedInputStream.java:265)
at java.io.DataInputStream.readUnsignedByte(DataInputStream.java:288)
at com.rabbitmq.client.impl.Frame.readFrom(Frame.java:91)
at com.rabbitmq.client.impl.SocketFrameHandler.readFrame(SocketFrameHandler.java:164)
at com.rabbitmq.client.impl.AMQConnection$MainLoop.run(AMQConnection.java:578)
at java.lang.Thread.run(Thread.java:745)
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>> 我有一個(gè)應(yīng)用場景 進(jìn)程: 1. 商品上架 i-- 商品上架成功 ii-- 發(fā)送 更新庫存消息 iii-- 發(fā)送 發(fā)送提示有關(guān)人員消息 情況一: 商品上架失敗,直接本地事物回滾 情況二: 發(fā)送庫存更新失敗,直接讓事物回滾 情況三: 發(fā)送提示有關(guān)人員消息失敗 ,但此時(shí)已經(jīng)發(fā)送更新庫存了, 如何讓 更新庫存回滾
如何讓發(fā)送發(fā)送提示有關(guān)人員消息失敗時(shí),將更新庫存的消息回退
遇到這種情況,請問大家如何解決???
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
想要實(shí)現(xiàn)類似以下的需要,
在訂單系統(tǒng)中,一個(gè)用戶下單之后通常有30分鐘的時(shí)間進(jìn)行支付,如果30分鐘之內(nèi)沒有支付成功,那么這個(gè)訂單將取消。
將消息設(shè)置過期時(shí)間,發(fā)送到死信隊(duì)列,過期后轉(zhuǎn)發(fā)到監(jiān)聽的隊(duì)列。
參考 https://blog.csdn.net/i_vic/article/details/72742277
以上代碼實(shí)現(xiàn)了,當(dāng)單個(gè)消息大的時(shí)候,沒有問題。
問題是 多個(gè)消息,而且每個(gè)消息過期時(shí)間不一樣 ,這時(shí)候問題就來了,如果第一個(gè)過期時(shí)間太久,那么第二消息要等第一個(gè)過期后,才能過期。
請問各位大神,這是正?,F(xiàn)象,還是配置有問題呢?
如何才能實(shí)現(xiàn)不同過期時(shí)間消息,都能正常呢?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
因?yàn)楝F(xiàn)在用注解創(chuàng)建消費(fèi)者監(jiān)聽器,都是通過:@RabbitListener
所有沒有是很什么方法動(dòng)態(tài)創(chuàng)建隊(duì)列,比如我配置文件里面配置 了 隊(duì)列名名稱:queueTest1, queueTest2
然后在其他啟動(dòng)的時(shí)候得到啟用的隊(duì)列名稱,動(dòng)態(tài)的循環(huán)創(chuàng)建 消費(fèi)者監(jiān)聽器?
而不是 事先寫在類上面添加監(jiān)聽器注解
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
報(bào)錯(cuò)如圖, 防火墻關(guān)了, hosts也添加了, cmd也是管理身份運(yùn)行的,第一次安裝的時(shí)候運(yùn)行起來了,所有都是成功的, 之后一直沒用,今天想起來運(yùn)行一下,就是一直報(bào)這種錯(cuò)誤
epmd那個(gè)進(jìn)程,啟服務(wù)之前我也殺了
求大神解答,我都查了一天了,網(wǎng)上不是說關(guān)防火墻,就是改host,我都試了,完全沒用
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
rabbitmq,消費(fèi)端獨(dú)立做了一個(gè)tomcat服務(wù),但是要更新服務(wù)重啟的話要如何操作?直接kill進(jìn)程的話可能會(huì)造成隊(duì)列消息丟失,因?yàn)橛玫氖亲詣?dòng)應(yīng)答。不知道有沒有好的辦法避免消息丟失?
另外如果用手動(dòng)應(yīng)答會(huì)不會(huì)出現(xiàn)處理時(shí)間長導(dǎo)致應(yīng)答超時(shí),mq發(fā)給另外消費(fèi)者導(dǎo)致重復(fù)消費(fèi)?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
上圖可以看到,我在rabbitmq-env.conf中設(shè)置nodename 是 rabbit@node1 我的host 10.13.3.xx 是node1 hostname 設(shè)置是rabbit@node1 。
但是它告訴我當(dāng)前node的nodename 是 nonode@nohost? 是為什么呢?
另外我的.erlang.cookie 這個(gè)文件是隱藏的,cat .erlang.cookie 這個(gè)文件,發(fā)現(xiàn)內(nèi)容是空的。
是需要手動(dòng)添加嗎?
我在service rabbitmq-server start 的時(shí)候失敗,提示"Too short cookie string" ,并且啟動(dòng)的還是nodename 是 nonode@nohost 這個(gè)節(jié)點(diǎn)
不知道是怎么回事。還請大家?guī)兔獯稹?
謝謝。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
我設(shè)置了消費(fèi)者手動(dòng)應(yīng)答,最小和最大消費(fèi)者是1,消費(fèi)端加了重試.然后在消費(fèi)端用了一個(gè)線程池處理,發(fā)現(xiàn)消費(fèi)端接收到的消息有些重復(fù)接收了好幾次
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
使用了默認(rèn)配置 只在方法上增加了 @RabbitListener(queues = "message.test.queue")
但寫多個(gè)方法對進(jìn)行同一隊(duì)列監(jiān)聽 示例如下 @RabbitListener(queues = "message.test.queue") public void m1(){ } @RabbitListener(queues = "message.test.queue") public void m2(){ } @RabbitListener(queues = "message.test.queue") public void m3(){ }
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
系統(tǒng):win server2012 R2
服務(wù):網(wǎng)上說這兩項(xiàng)要啟動(dòng),已保證在運(yùn)行了,然后進(jìn)行的vmware軟件安裝
安裝過程:正常無報(bào)錯(cuò),使用管理員進(jìn)行安裝
安裝結(jié)果:沒有出現(xiàn)虛擬網(wǎng)卡 VMnet8 VMnet1
網(wǎng)上查找到的方法,使用CClear也清理過,重新安裝也無效,各位安裝過程遇到過嗎?有沒有啥其它招式,不想重裝系統(tǒng)。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
vi /etc/resolv.conf和vi /etc/sysconfig/network-scripts/ifcfg-ens33也改好了,但是網(wǎng)絡(luò)還是不行
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
目前需要設(shè)計(jì)一個(gè)根據(jù)用戶需求自動(dòng)為客戶創(chuàng)建虛擬機(jī)并能安裝語言環(huán)境的技術(shù),網(wǎng)上推薦使用viJava實(shí)現(xiàn),請問具體實(shí)現(xiàn)方式和對應(yīng)接口或類的aip文檔
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
為什么虛擬機(jī)網(wǎng)絡(luò)編輯的時(shí)候只有兩個(gè)虛擬網(wǎng)卡,缺少vmnet0,編輯網(wǎng)絡(luò)的時(shí)候需要管理員權(quán)限。本次編輯好,再次打開的時(shí)候還是只有兩個(gè)虛擬網(wǎng)卡,編輯的時(shí)候還是需要管理員權(quán)限
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
如何讓一臺(tái)虛擬機(jī)可以連接局域網(wǎng),但阻止它連外網(wǎng)?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
宿主機(jī)硬件是服務(wù)器主板,雙cpu 32核,安裝的是win7系統(tǒng),然后安裝了vmware workstation14,接著在新建了一個(gè)win7 64虛擬機(jī),也裝好了,當(dāng)安裝vmware tools時(shí)出現(xiàn)如下提示,不知為啥
選擇“管理員取得所有權(quán)”再打開,或者選擇“以管理員身份運(yùn)行”都無濟(jì)于事!
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
本人首次學(xué)習(xí)關(guān)于Kubernetes的相關(guān)知識,根據(jù)Kubernetes的權(quán)威指南做了一個(gè)關(guān)于Kubernetes的一個(gè)小測試 相關(guān)環(huán)境是:
centos7 64位
Kubernetes 1.5.2
docker 1.13.1
etcd 3.2.22
etcd,Kubernetes,docker安裝完畢,之后講防火墻和selinux都關(guān)閉了 。 防火墻的狀態(tài):
[root @localhost kubernetes]# systemctl status iptables.service
● iptables.service - IPv4 firewall with iptables
Loaded: loaded (/usr/lib/systemd/system/iptables.service; disabled; vendor preset: disabled)
Active: inactive (dead) since 五 2018-08-10 16:05:50 CST; 32min ago
Process: 13907 ExecStop=/usr/libexec/iptables/iptables.init stop (code=exited, status=0/SUCCESS)
Process: 12874 ExecStart=/usr/libexec/iptables/iptables.init start (code=exited, status=0/SUCCESS)
Main PID: 12874 (code=exited, status=0/SUCCESS)
8月 10 16:05:50 localhost.localdomain systemd[1]: Stopping IPv4 firewall with iptables...
8月 10 16:05:50 localhost.localdomain iptables.init[13907]: iptables: Setting chains to policy… ]
8月 10 16:05:50 localhost.localdomain iptables.init[13907]: iptables: Flushing firewall rules:… ]
8月 10 16:05:50 localhost.localdomain iptables.init[13907]: iptables: Unloading modules: [ 確定 ]
8月 10 16:05:50 localhost.localdomain systemd[1]: Stopped IPv4 firewall with iptables.
Warning: Journal has been rotated since unit was started. Log output is incomplete or unavailable.
Hint: Some lines were ellipsized, use -l to show in full.
selinux的狀態(tài):
[root @localhost kubernetes]# getenforce
Disabled
寫了關(guān)于yaml文件(該文件是摘錄書中的)
啟動(dòng)了如下服務(wù):
systemctl start docker
systemctl start kube-apiserver
systemctl start kube-controller-manager
systemctl start kube-scheduler
systemctl start kubelet
systemctl start kube-proxy
查看服務(wù): [root @localhost kubernetes]# ps -ef | grep kube
kube 14403 1 0 16:29 ? 00:00:00 /usr/bin/kube-controller-manager --logtostderr=true --v=0 --master=http://127.0.0.1:8080
kube 14416 1 1 16:29 ? 00:00:00 /usr/bin/kube-scheduler --logtostderr=true --v=0 --master=http://127.0.0.1:8080
root 14427 1 3 16:29 ? 00:00:00 /usr/bin/kubelet --logtostderr=true --v=0 --api-servers=http://127.0.0.1:8080 --address=127.0.0.1 --hostname-override=127.0.0.1 --allow-privileged=false --pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest
root 14477 1 3 16:29 ? 00:00:00 /usr/bin/kube-proxy --logtostderr=true --v=0 --master=http://127.0.0.1:8080
然后創(chuàng)建pod:
kubectl create -f /root/yaml/mysql-rc.yaml
報(bào)錯(cuò)信心如下:
The connection to the server localhost:8080 was refused - did you specify the right host or port?
查看端口8080:
netstat -an | grep 8080 沒有任何信息
查看網(wǎng)上相關(guān)信息,修改如下兩處:
1)說是修改監(jiān)聽的地址,所有修改如下文件: ./apiserver:#KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"
./config:#KUBE_MASTER="--master=http://0.0.0.0:8080"
./kubelet:#KUBELET_ADDRESS="--address=0.0.0.0"
./kubelet:#KUBELET_API_SERVER="--api-servers=http://0.0.0.0:8080"
然后重新啟動(dòng)了: systemctl restart kube-apiserver
systemctl restart kube-controller-manager
systemctl restart kube-scheduler
systemctl restart kubelet
systemctl restart kube-proxy
查看服務(wù): [root @localhost kubernetes]# ps -ef | grep kube
kube 14403 1 0 16:29 ? 00:00:00 /usr/bin/kube-controller-manager --logtostderr=true --v=0 --master=http://0.0.0.0:8080
kube 14416 1 1 16:29 ? 00:00:00 /usr/bin/kube-scheduler --logtostderr=true --v=0 --master=http://0.0.0.0:8080
root 14427 1 3 16:29 ? 00:00:00 /usr/bin/kubelet --logtostderr=true --v=0 --api-servers=http://0.0.0.0:8080 --address=0.0.0.0 --hostname-override=127.0.0.1 --allow-privileged=false --pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest
root 14477 1 3 16:29 ? 00:00:00 /usr/bin/kube-proxy --logtostderr=true --v=0 --master=http://0.0.0.0:8080
查看端口8080:
[root @localhost kubernetes]# netstat -anltp | grep 8080
[root@localhost kubernetes]#
為什么服務(wù)起來了,端口為什么沒有監(jiān)聽呀?
2)修改apiserver文件中的KUBE_ADMISSION_CONTROL將 ServiceAccount去掉
# default admission control policies
KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ResourceQuota"
重新啟動(dòng):
systemctl restart kube-apiserver
根據(jù)上述修改還是報(bào)錯(cuò):
[root@localhost kubernetes]# kubectl create -f /root/yaml/mysql-rc.yaml
The connection to the server localhost:8080 was refused - did you specify the right host or port?
綜上所有問題:
1.為什么沒有辦法創(chuàng)建pod,為什么說端口被拒絕?
2.服務(wù)都起來了為什么端口沒有被監(jiān)聽?
求大神們幫幫小弟,看看這是哪里出現(xiàn)了問題?謝謝!
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
轉(zhuǎn)眼間來北京已經(jīng)三年多了,當(dāng)初在外地銀行做一個(gè)監(jiān)控,生活清閑比較清閑,后來年紀(jì)大了迫于結(jié)婚買房等種種壓力跑到了北京謀個(gè)發(fā)展。從當(dāng)初的一臉懵逼到如今的小有所成走了太多的冤枉路,如今回首感覺明朗很多。
當(dāng)初IT界最洪亮的聲音聲音莫過于大數(shù)據(jù)和云計(jì)算了,如果對這兩個(gè)你都不知道那你就low爆了,我就是那個(gè)low爆了的其中之一,只是聽過這兩個(gè)名詞卻不知道他們是什么能做什么,但我很清楚一點(diǎn),搞這個(gè)很賺錢,比做一個(gè)監(jiān)控崗更有發(fā)展。懷著無限的憧憬和熱情一頭就扎進(jìn)了openstack的學(xué)習(xí)當(dāng)中,懂行的朋友一定知道,結(jié)局注定是頭破血流。是的,對于一個(gè)小白來說如同天書,復(fù)雜的組件繁瑣的命令行,還有那不知所以的報(bào)錯(cuò),光搭建就已經(jīng)給我的熱情耗盡了,更別談理解各個(gè)組建的作用之間的相關(guān)關(guān)系,無奈之下只能放棄。
在朋友的建議下從KVM開始學(xué)起,KVM相比于openstack確實(shí)簡單很多,畢竟不過多的涉及到管理層面。但是簡單也是相對的,KVM是可以實(shí)現(xiàn)創(chuàng)建虛擬機(jī)也可以借助一些軟件進(jìn)行簡單管理,但是過程復(fù)雜很多都要手動(dòng)命令行配置,對于新手去理解去排查錯(cuò)誤也是一大考驗(yàn)。
如今接觸的產(chǎn)品多了也整理出了一條最適合新手學(xué)習(xí)路線。不花錢就能獲得的免費(fèi)資源。
第一站:OVM社區(qū)(www.51ovm.esage.cn)
在摸過的眾多產(chǎn)品中我最終選擇了它,是因?yàn)槭紫人耆赓M(fèi),適合學(xué)習(xí)者入手,其次提供簡潔直觀的界面操作便于上手,第三具有通用的邏輯性關(guān)聯(lián)性,搞明白了它再去參照別的產(chǎn)品也大同小異了。最后,還有專業(yè)的社區(qū)QQ群能幫你解決疑難問題,初學(xué)者的最佳選擇。
第二站:原生KVM
掌握KVM可以說是非常關(guān)鍵的一步,在開源虛擬化里KVM就是基石,無論適合新手的OVM還是適合高手的openstack都是基于KVM開發(fā)的。很多人會(huì)納悶為什么我不介紹Hyper-v或者ESXI或者Xen這些國際大牌。首先我是想把開源產(chǎn)品串成一條線讓大家學(xué)習(xí)起來有個(gè)階段性,其次閉源產(chǎn)品沒有很明顯的難度劃分,不如先學(xué)開源觸類旁通在學(xué)起來難度會(huì)降低很多。最后也是個(gè)人愚見,在中國的政策影響下國產(chǎn)產(chǎn)品的市場份額會(huì)慢慢加大,這個(gè)從智聯(lián)的招聘也能有所感受,搜Openstack得到的職位比vmware會(huì)多一些。在文檔方面我建議用這篇來自服務(wù)器之家的,步驟清晰也比較正統(tǒng)。(https://www.server110.com/kvm/201403/8321.html)
第三站:Openstack
Openstack是KVM體系的巔峰之作,雖然其強(qiáng)大的功能性征服了所有人,但其安裝復(fù)雜維護(hù)難度大依然被人所詬病。有了以上兩部分的學(xué)習(xí)和理解,再來學(xué)習(xí)Openstack就不會(huì)一臉懵逼了。我推薦幾篇好的文檔幫助大家更好的理解和學(xué)習(xí)。
《openstack從入門到放棄》(http://www.cnblogs.com/pythonxiaohu/p/5861409.html)
這是一篇讓人感動(dòng)到哭的好文章,簡單明了的告訴了我們什么是云計(jì)算。有什么功能。有哪些組件等等。我相信你們看完了會(huì)感覺前途一片光明。
《openstack入門之架構(gòu)分析》(http://blog.csdn.net/Heartyhu/article/details/51033450)
如果第一篇看完后還覺得需要深入了解一下架構(gòu)、工作原理什么的那就來看看這篇文章。依然是清晰易懂,如果感覺一時(shí)技癢可以找一下openstack的官方部署文檔練練手吧。
這就是鄙人這幾年工作下來總結(jié)的比較不錯(cuò)的方式了,希望能對看到這篇文章的朋友有所幫助。如果有人認(rèn)為自己天縱奇才可以直接從最后一篇安裝文檔入手。
最后在這里感謝這些文檔的作者,給我們留下最好的指引。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
環(huán)境是這樣的,在Vmware上起虛機(jī),安裝了Centos7.1.1503的Base Web Server版本。在其基礎(chǔ)上安裝docker,并啟動(dòng) Centos7.1.1503的docker容器,容器中安裝openstack kilo版本。運(yùn)行過程中宿主機(jī)系統(tǒng)突然Crash,而此時(shí)容器中并沒有做什么操作。
Crash部分日志如下:
[90337.470999] device qr-1309f530-fc entered promiscuous mode [91463.675866] device veth1pl30778 left promiscuous mode [91463.675908] br0: port 2(veth1pl30778) entered disabled state [91519.165094] XFS (dm-3): Mounting V4 Filesystem [91519.240631] XFS (dm-3): Ending clean mount [91519.240648] SELinux: initialized (dev dm-3, type xfs), uses xattr [91519.345969] SELinux: initialized (dev tmpfs, type tmpfs), uses transition SIDs [91519.373317] SELinux: initialized (dev mqueue, type mqueue), uses transition SIDs [91519.373979] IPVS: Creating netns size=2032 id=9 [91519.374217] SELinux: initialized (dev proc, type proc), uses genfs_contexts [91519.392949] SELinux: initialized (dev tmpfs, type tmpfs), uses transition SIDs [91519.393044] SELinux: initialized (dev devpts, type devpts), uses transition SIDs [91519.393616] SELinux: initialized (dev sysfs, type sysfs), uses genfs_contexts [91519.393936] SELinux: initialized (dev tmpfs, type tmpfs), uses transition SIDs [91520.018018] device veth1pl29855 entered promiscuous mode [91520.019111] IPv6: ADDRCONF(NETDEV_UP): veth1pl29855: link is not ready [91520.157206] SELinux: initialized (dev tmpfs, type tmpfs), uses transition SIDs [91520.205487] IPv6: ADDRCONF(NETDEV_CHANGE): veth1pl29855: link becomes ready [91520.205516] br0: port 2(veth1pl29855) entered forwarding state [91520.205519] br0: port 2(veth1pl29855) entered forwarding state [91520.546132] device vens192pl29855 entered promiscuous mode [91520.547192] IPv6: ADDRCONF(NETDEV_UP): vens192pl29855: link is not ready [91520.547196] br1: port 3(vens192pl29855) entered forwarding state [91520.547200] br1: port 3(vens192pl29855) entered forwarding state [91520.709692] SELinux: initialized (dev autofs, type autofs), uses genfs_contexts [91520.755182] IPv6: ADDRCONF(NETDEV_CHANGE): vens192pl29855: link becomes ready [91520.910045] device vens224pl29855 entered promiscuous mode [91520.913025] IPv6: ADDRCONF(NETDEV_UP): vens224pl29855: link is not ready [91520.913029] br2: port 3(vens224pl29855) entered forwarding state [91520.913033] br2: port 3(vens224pl29855) entered forwarding state [91521.026734] br2: port 3(vens224pl29855) entered disabled state [91521.064058] SELinux: initialized (dev hugetlbfs, type hugetlbfs), uses transition SIDs [91521.114385] IPv6: ADDRCONF(NETDEV_CHANGE): vens224pl29855: link becomes ready [91521.114417] br2: port 3(vens224pl29855) entered forwarding state [91521.114422] br2: port 3(vens224pl29855) entered forwarding state [91521.157323] end_request: I/O error, dev fd0, sector 0 [91521.402652] systemd-udevd[32]: starting version 208 [91522.336222] end_request: I/O error, dev fd0, sector 0 [91524.374677] intel_rapl: domain package energy ctr 0:0 not working, skip [91524.506934] intel_rapl: domain core energy ctr 0:0 not working, skip [91524.642437] intel_rapl: domain uncore energy ctr 0:0 not working, skip [91524.777244] intel_rapl: domain dram energy ctr 0:0 not working, skip [91524.777247] intel_rapl: no valid rapl domains found in package 0 [91524.826352] device ovs-system entered promiscuous mode [91524.826562] openvswitch: netlink: Unknown key attribute (type=62, max=21). [91524.865220] device br-ex entered promiscuous mode [91524.865412] device ens224 entered promiscuous mode [91524.899459] device br-int entered promiscuous mode [91524.903144] device tap339c2e31-58 entered promiscuous mode [91524.906209] device qr-1309f530-fc entered promiscuous mode [91524.910658] device qr-45e21002-ed entered promiscuous mode [91524.914585] device tap49df5ef2-f5 entered promiscuous mode [91524.914907] device ens192 entered promiscuous mode [91524.924507] intel_rapl: domain package energy ctr 0:0 not working, skip [91524.955483] device br-vlan entered promiscuous mode [91525.055271] intel_rapl: domain core energy ctr 0:0 not working, skip [91525.190580] intel_rapl: domain uncore energy ctr 0:0 not working, skip [91525.326202] intel_rapl: domain dram energy ctr 0:0 not working, skip [91525.326207] intel_rapl: no valid rapl domains found in package 0 [91525.474397] intel_rapl: domain package energy ctr 0:0 not working, skip [91525.609771] intel_rapl: domain core energy ctr 0:0 not working, skip [91525.744894] intel_rapl: domain uncore energy ctr 0:0 not working, skip [91525.880407] intel_rapl: domain dram energy ctr 0:0 not working, skip [91525.880411] intel_rapl: no valid rapl domains found in package 0 [91526.026378] intel_rapl: domain package energy ctr 0:0 not working, skip [91526.162079] intel_rapl: domain core energy ctr 0:0 not working, skip [91526.297704] intel_rapl: domain uncore energy ctr 0:0 not working, skip [91526.432515] intel_rapl: domain dram energy ctr 0:0 not working, skip [91526.432519] intel_rapl: no valid rapl domains found in package 0 [91528.459707] systemd-journald[16]: Received request to flush runtime journal from PID 1 [91535.245195] br0: port 2(veth1pl29855) entered forwarding state [91535.565475] br1: port 3(vens192pl29855) entered forwarding state [91536.141883] br2: port 3(vens224pl29855) entered forwarding state [91693.977943] device br-ex left promiscuous mode [91694.006031] device ens224 left promiscuous mode [91694.006057] device br-vlan left promiscuous mode [91694.031267] device ens192 left promiscuous mode [91694.031296] device br-int left promiscuous mode [91694.065161] BUG: unable to handle kernel paging request at 0000001fffffffe7 [91694.065218] IP: [] __dp_destroy+0x39/0xe0 [openvswitch] [91694.065269] PGD 108bb2067 PUD 0 [91694.065294] Oops: 0000 [#1] SMP [91694.065319] Modules linked in: xt_REDIRECT xt_mark xt_CHECKSUM xt_comment veth ipt_MASQUERADE nf_nat_masquerade_ipv4 xt_addrtype xt_conntrack dm_thin_pool dm_persistent_data dm_bio_prison dm_bufio loop coretemp crct10dif_pclmul crc32_pclmul crc32c_intel ghash_clmulni_intel aesni_intel lrw gf128mul glue_helper ablk_helper cryptd ppdev vmw_balloon pcspkr serio_raw shpchp sg i2c_piix4 parport_pc parport vmw_vmci ip_vs openvswitch gre vxlan ip_tunnel ip_set_hash_net ip_set nfnetlink iptable_security iptable_raw iptable_mangle iptable_filter iptable_nat nf_conntrack_ipv4 nf_defrag_ipv4 nf_nat_ipv4 nf_nat nf_conntrack ip6t_rpfilter ip6t_REJECT ip6table_security ip6table_raw ip6table_mangle ip6table_filter ip6_tables ebt_arp ebtable_broute bridge stp llc ebtable_filter ebtable_nat ebtables ip_tables xfs [91694.065865] libcrc32c sd_mod sr_mod cdrom crc_t10dif crct10dif_common ata_generic pata_acpi vmwgfx drm_kms_helper ttm e1000 drm mptspi scsi_transport_spi mptscsih mptbase ata_piix libata i2c_core floppy dm_mirror dm_region_hash dm_log dm_mod [91694.066035] CPU: 3 PID: 10372 Comm: kworker/u8:2 Not tainted 3.10.0-229.el7.x86_64 #1 [91694.066082] Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 04/14/2014 [91694.066149] Workqueue: netns cleanup_net [91694.066175] task: ffff880084e56660 ti: ffff8800b7b7c000 task.ti: ffff8800b7b7c000 [91694.066220] RIP: 0010:[] [] __dp_destroy+0x39/0xe0 [openvswitch] [91694.066280] RSP: 0018:ffff8800b7b7fd58 EFLAGS: 00010206 [91694.066312] RAX: ffff8800606a17b8 RBX: 0000001fffffffff RCX: 0000000000651439 [91694.066408] RDX: 0000000000651438 RSI: ffffea0002df53c0 RDI: 0000001fffffffc7 [91694.066452] RBP: ffff8800b7b7fd70 R08: 0000000000016380 R09: ffff88013fd96380 [91694.066494] R10: ffffea0002be8c80 R11: ffffffff812d7368 R12: 0000000000000038 [91694.066536] R13: ffff8800763c4a80 R14: ffffffffa03d5020 R15: 0000000000000100 [91694.066580] FS: 0000000000000000(0000) GS:ffff88013fd80000(0000) knlGS:0000000000000000 [91694.066627] CS: 0010 DS: 0000 ES: 0000 CR0: 000000008005003b [91694.066733] CR2: 0000001fffffffe7 CR3: 0000000101407000 CR4: 00000000000407e0 [91694.066824] DR0: 0000000000000000 DR1: 0000000000000000 DR2: 0000000000000000 [91694.066924] DR3: 0000000000000000 DR6: 00000000ffff0ff0 DR7: 0000000000000400 [91694.069048] Stack: [91694.070996] ffff88001a51e8b0 ffff88001a51e8c0 ffffffffa03d5018 ffff8800b7b7fd90 [91694.072337] ffffffffa03cb093 ffff880138178000 ffff8800b7b7fde0 ffff8800b7b7fdc0 [91694.073681] ffffffff814f4919 ffffffffa03d5000 ffff8800b7b7fde0 ffff8800b7b7fdd0 [91694.074988] Call Trace: [91694.076263] [] ovs_exit_net+0x63/0xa0 [openvswitch] [91694.077750] [] ops_exit_list.isra.1+0x39/0x60 [91694.079047] [] cleanup_net+0x110/0x260 [91694.080326] [] process_one_work+0x17b/0x470 [91694.081615] [] worker_thread+0x11b/0x400 [91694.082824] [] ? rescuer_thread+0x400/0x400 [91694.084012] [] kthread+0xcf/0xe0 [91694.085161] [] ? kthread_create_on_node+0x140/0x140 [91694.086294] [] ret_from_fork+0x7c/0xb0 [91694.087437] [] ? kthread_create_on_node+0x140/0x140 [91694.088521] Code: 41 54 45 31 e4 53 0f 1f 40 00 49 8b 45 48 4a 8b 04 20 48 85 c0 74 29 48 8d 78 c8 eb 0e 0f 1f 44 00 00 48 85 db 74 19 48 8d 7b c8 <66> 83 7f 20 00 48 8b 5f 38 74 ec e8 67 fe ff ff 48 85 db 75 e7 [91694.091872] RIP [] __dp_destroy+0x39/0xe0 [openvswitch] [91694.093167] RSP [91694.094367] CR2: 0000001fffffffe7
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
ip修改
ping 127.0.0.1可以ping通
ping內(nèi)網(wǎng)不通
ping外網(wǎng)也不通
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
A機(jī)器和B機(jī)器系統(tǒng)都是win7,虛擬機(jī)裝在A機(jī)器上,vmware版本 10.0.4,虛擬機(jī)NAT連接模式,端口映射22→5000
問題:
在A機(jī)器上通過xshell,連127.0.0.1:5000可以連上虛擬機(jī)
B機(jī)器可以ping通A機(jī)器,但是通過xshell連【A機(jī)器的ip】:5000時(shí),無法連接
如何修改設(shè)置能讓B機(jī)器通過xshell連上A機(jī)器的NAT模式的虛擬機(jī)?
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
碼云和開源社區(qū)都互相綁定了,但是就是登錄不上去
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
剛接觸APP開發(fā),求指教。
功能描述:在其他app復(fù)制URL,然后切到OSapp,就顯示這個(gè)投遞對話框。
思路:我想應(yīng)該是操作剪切板吧 ClipboardManager cm =(ClipboardManager)getApplication().getSystemService(Context.CLIPBOARD_SERVICE);
Log.d("MainActivity", "onClip: "+String.valueOf(cm.hasPrimaryClip()));
上面這段代碼, 放onCreate、onResume里均為fasle,但放在onCreate的點(diǎn)擊事件里,點(diǎn)擊觸發(fā)卻能true,為何?我認(rèn)為本應(yīng)該放onResume才對吧
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
大家都知道,開源中國Android客戶端官方發(fā)布渠道有:豌豆莢、應(yīng)用寶、小米市場。
地球人也都知道,Android分發(fā)渠道眾多,而且各不相同,因此想要全部覆蓋是不現(xiàn)實(shí)的。
但,為了廣大OSCer們能夠更加便捷的獲取開源中國客戶端,我們想要對分發(fā)渠道進(jìn)行一定擴(kuò)展,也因此,請大家踴躍投票,你的數(shù)據(jù)對我們很重要。
再次,感謝廣大OSCer們對開源中國長期以來的支持,愛你們~
如果你使用的安卓市場不再上述選項(xiàng)之中,請留言告訴我們。
HDC調(diào)試需求開發(fā)(15萬預(yù)算),能者速來!>>>
按照部署要求部署好新版的OSCHIINA,發(fā)現(xiàn)open模塊下的某個(gè)包中顯示導(dǎo)包錯(cuò)誤還是無效?這是什么情況???