亚洲色成人网站www永久,亚洲欧美人成视频一区在线,亚洲国产成人高清在线观看,亚洲精品久久久久久动漫,亚洲国产精品久久电影欧美

數據專欄

智能大數據搬運工,你想要的我們都有

科技資訊

科技學院

科技百科

科技書籍

網站大全

軟件大全

HDC調試需求開發(fā)(15萬預算),能者速來!>>> 2015-10-09 20:00:52 1068 [Note] wampmysqld: Arrêt normal du serveur2015-10-09 20:00:52 1068 [Note] Giving 0 client threads a chance to die gracefully 2015-10-09 20:00:52 1068 [Note] Event Scheduler: Purging the queue. 0 events 2015-10-09 20:00:52 1068 [Note] Shutting down slave threads 2015-10-09 20:00:52 1068 [Note] Forcefully disconnecting 0 remaining clients 2015-10-09 20:00:52 1068 [Note] Binlog end 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'partition' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'PERFORMANCE_SCHEMA' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_DATAFILES' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_TABLESPACES' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_FOREIGN_COLS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_FOREIGN' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_FIELDS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_COLUMNS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_INDEXES' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_TABLESTATS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_SYS_TABLES' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_INDEX_TABLE' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_INDEX_CACHE' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_CONFIG' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_BEING_DELETED' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_DELETED' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_FT_DEFAULT_STOPWORD' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_METRICS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_BUFFER_POOL_STATS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_BUFFER_PAGE_LRU' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_BUFFER_PAGE' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMP_PER_INDEX_RESET' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMP_PER_INDEX' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMPMEM_RESET' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMPMEM' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMP_RESET' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_CMP' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_LOCK_WAITS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_LOCKS' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'INNODB_TRX' 2015-10-09 20:00:52 1068 [Note] Shutting down plugin 'InnoDB' 2015-10-09 20:00:52 1068 [Note] InnoDB: FTS optimize thread exiting. 2015-10-09 20:00:52 1068 [Note] InnoDB: Starting shutdown... 2015-10-09 20:00:53 1068 [Note] InnoDB: Shutdown completed; log sequence number 1626017 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'BLACKHOLE' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'ARCHIVE' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'MRG_MYISAM' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'MyISAM' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'MEMORY' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'CSV' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'sha256_password' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'mysql_old_password' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'mysql_native_password' 2015-10-09 20:00:53 1068 [Note] Shutting down plugin 'binlog' 2015-10-09 20:00:53 1068 [Note] wampmysqld: Arrêt du serveur terminé 2015-10-09 20:00:56 10040 [Note] Plugin 'FEDERATED' is disabled. 2015-10-09 20:00:56 10040 [Note] InnoDB: Using atomics to ref count buffer pool pages 2015-10-09 20:00:56 10040 [Note] InnoDB: The InnoDB memory heap is disabled 2015-10-09 20:00:56 10040 [Note] InnoDB: Mutexes and rw_locks use Windows interlocked functions 2015-10-09 20:00:56 10040 [Note] InnoDB: Compressed tables use zlib 1.2.3 2015-10-09 20:00:56 10040 [Note] InnoDB: Not using CPU crc32 instructions 2015-10-09 20:00:56 10040 [Note] InnoDB: Initializing buffer pool, size = 128.0M 2015-10-09 20:00:56 10040 [Note] InnoDB: Completed initialization of buffer pool 2015-10-09 20:00:56 10040 [Note] InnoDB: Highest supported file format is Barracuda. 2015-10-09 20:00:56 10040 [Note] InnoDB: 128 rollback segment(s) are active. 2015-10-09 20:00:56 10040 [Note] InnoDB: Waiting for purge to start 2015-10-09 20:00:56 10040 [Note] InnoDB: 5.6.17 started; log sequence number 1626017 2015-10-09 20:00:56 10040 [Note] Server hostname (bind-address): '*'; port: 3306 2015-10-09 20:00:56 10040 [Note] IPv6 is available. 2015-10-09 20:00:56 10040 [Note] - '::' resolves to '::'; 2015-10-09 20:00:56 10040 [Note] Server socket created on IP: '::'. 2015-10-09 20:00:57 10040 [Note] Event Scheduler: Loaded 0 events 2015-10-09 20:00:57 10040 [Note] wampmysqld: ready for connections. Version: '5.6.17' socket: '' port: 3306 MySQL Community Server (GPL)
技術問答
2015-10-09 20:57:00
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
我用同學的電腦訪問我搭建的wen服務器,其他還算正常,不過,有兩點,不能解決,
首先就是同學的電腦ping不通我電腦,但我的能ping通同學的。但是在同學電腦瀏覽器上能正常訪問我的網頁。
第二就是在瀏覽器上卻不能訪問phpmyad,提示這樣的錯誤:Access denied per /etc/httpd/conf/webapps.d/phpmyadmin.conf
技術問答
2014-05-16 18:20:06
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
【問題描述】
在虛擬機器centos 系統上 連接遠程mysql服務器
用命令方式 可以遠程登錄
wang@localhost wordpress]$ mysql -h 10.73.144.231 -u root -p -P 3306 Enter password: Welcome to the MariaDB monitor. Commands end with ; or \g. Your MySQL connection id is 4 Server version: 5.6.20 MySQL Community Server (GPL)

說明 遠程mysql 已經設置為任何機器都可以登錄。原來命令方式不可以登錄現在可以登錄了
但是通過php程序方式就登錄不上了
但是 我在centos 安裝phpMyAdmin 是 配置文件修改了
/** * MySQL hostname or IP address * * @global string $cfg['Servers'][$i]['host'] */ $cfg['Servers'][$i]['host'] = '10.73.144.231'; /** * MySQL port - leave blank for default port * * @global string $cfg['Servers'][$i]['port'] */ $cfg['Servers'][$i]['port'] = '3306'; /** * Path to the socket - leave blank for default socket * * @global string $cfg['Servers'][$i]['socket'] */ $cfg['Servers'][$i]['socket'] = ''; /** * Use SSL for connecting to MySQL server? * * @global boolean $cfg['Servers'][$i]['ssl'] */


但是連接不上如何解決 無法登錄

有遇到過的嗎
請聯系 qq:2563521318
技術問答
2015-07-24 16:06:00
HDC調試需求開發(fā)(15萬預算),能者速來!>>>

怎么在登錄界面上讓它顯示主機+端口輸入? 默認為localhost:3306
假如我想登錄3307... 3308, 環(huán)境里面有多套mysql.
技術問答
2015-07-23 16:47:00
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
如圖,我服務器遠程上打開xammp,mysql后面的admin點擊之后進不去phpadmin,請大家?guī)臀医鉀Q
技術問答
2015-06-29 09:53:00
HDC調試需求開發(fā)(15萬預算),能者速來!>>>
請高手幫忙!
我在a.html文件中如下寫入。

  • 上傳文件:


  • 另外在b.html文件中如下寫入。

    結果在現實的信息最下面 PHP Variables 下面的表格中看不見 _FILES["babo"]以及相關的內容。
    請高手指點。
    技術問答
    2015-05-24 21:50:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 公司有一個電商網站,在網站后臺可以上傳資訊,以及商品(即可以上傳網站所有資料),網站上線后,多了一個phpMyAdmin數據庫后臺,以及一個FTP ,都有賬號和密碼,想了解一下,這個數據庫和FTP什么時候使用它?因為網站后臺在產品開發(fā)測試階段已經滿足基本需求了(網站后臺可以上傳前臺想展示的商品、資料)
    技術問答
    2015-05-28 09:49:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    @紅薯 你好,想跟你請教個問題:我用play寫了個小站,程序里記錄了登錄的用戶ID在session,每次請求都會判斷sessioin里存的iD是否為空,如果為空,我就彈出到登錄頁面。問題是:在瀏覽器已經有cookie緩存的情況下登入我的網站后,進去點擊任何操作就馬上被彈出到登錄頁面,打印出來的httphead信息里的play_session是空的,然后我手動把瀏覽器的cookie緩存給清空就OK了,不知道是什么原因,求指教
    技術問答
    2012-06-14 22:34:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    oschina 上的各位大俠們 , 給我點解決方案的建議,或者 具體的實現方案吧 詳細最好 使用nginx負載 多個tomcat 如何實現session共享,搞了好長時間沒有成功,在網上也看了一些關于這方面的資料, 測試的時候也是失敗的。 除了這個memcached
    還有其他的決定方案嗎 ? 還有一個 nginx 搭配幾個tomcat 才能對 5K ~1W 的并發(fā)進行負載, 小弟經驗不足,請大家多多指教呀。 多謝各位呢,
    注明 : 解決問題,送油卡!
    技術問答
    2011-05-03 09:33:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 我們單位的代碼已經寫好啦,有很多地方關于session獲取用戶信息的地方,現在公司希望做一個tomcat的集群,nginx 做代理服務器和負載均衡,所以會產生session的問題,我準備使用msm來實現session的同步,代碼里面session的地方還要存放在memcache中嗎,根據jsessionid的,是否要修改代碼,謝謝
    技術問答
    2014-03-26 16:39:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 我寫一個java web項目,在里面要調用其他系統的操作,然后返回本項目中,結果返回本系統之后原來的登錄記錄沒有了,session里面沒有值了,這個要怎么解決呢。
    技術問答
    2014-02-27 09:28:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    經過發(fā)現,在登錄頁load出來的過程中,使用webpy的session機制產生的文件下存在兩個session文件。但是使用webpy自帶的server的話,始終是一個session文件。
    進一步查看,發(fā)現問題是webpy需要根據nginx發(fā)送的http_cookie來產生session,但是再沒有配置nginx的前提下,http_cookie總是為空。
    有沒有相關的辦法配置nginx,使http_cookie能夠不為空 ,并且webpy能夠識別并產生session文件?
    技術問答
    2011-08-22 16:45:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>

    我是java新手,寫了個java文件 package com; public class test{ public String sd(String s){ return s+"ok"; } }
    在jsp里調用 <%@ page import="com.test"%> <% test te=new test(); String a =te.sd("11"); out.print(a); %>
    總是報錯, 如果把jsp里的不傳遞參數 直接te.sd()
    就是正常的,,請問是我傳遞參數的地方錯了嗎?

    剛剛根據2位大哥的建議把
    te.sd('11'); 換為 te.sd("11");了但是還是報錯,我也郁悶了...
    技術問答
    2018-05-29 10:21:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    本地開發(fā)環(huán)境與線上環(huán)境基本一致,包括服務器操作系統,JDK,Web Server(都是Tomcat 7.0 );
    問題在于,客戶那邊將系統的訪問地址掛在了他們的公司主頁上——用戶通過主頁的一個超鏈接訪問,本地測試是直接瀏覽器收藏的網址訪問。用戶那邊通過門戶超鏈接跳轉就會出現 404 找不到頁面的錯誤,但是手動刷新一下瀏覽器就可以訪問,這個問題也有段時間了一直沒有很好的處理。
    求教了!
    技術問答
    2018-05-08 07:01:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    不知道應該怎么稱呼這個功能,如圖所示:
    這個功能是怎么實現的呢 ?
    技術問答
    2018-01-12 16:38:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    1.使用python操控數據庫,將查詢出來的數據在html界面中,成功的以表格的形式展示(用的Bootstrap模版)。
    2.現在想在網頁中每個表的左側添加一個可編輯的按鈕,實現對數據的修改,并保存至數據庫中,現在無從下手,請大神指點一下,感激不僅。
    技術問答
    2017-08-15 14:36:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> @Controller @RequestMapping("res") // 控制器的請求映射 res public class StudyPlanController { // 獲取學習計劃列表 @RequestMapping(value = "getStudyPlans", method = RequestMethod.GET) public ModelAndView getStudyPlans(HttpServletRequest request, HttpServletResponse response) { //......操作........ ModelAndView mav = new ModelAndView(); // 設置視圖名 mav.setViewName("plan"); // 返回邏輯視圖名為: plan return mav; } }
    我想讓它返回的視圖名是 plan
    但是它返回的是:res/plan
    它在前面加了控制器的requestMapping的名字
    請問一下這個怎么解決呢?????
    技術問答
    2017-05-28 17:08:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    我在瀏覽器中敲入了一個URL,比如localhost/admin/home/2/2232323,而在SPring框架中,由于存在將請求轉發(fā)到對一尼姑的JSP的邏輯,如下:
    @RequestMapping("{userName}/home/{categoryId}/{fileName}") public String toUserCategory(){ return "blog/blog_list"; //返回JSP頁面 }
    這樣就會將上面瀏覽器中的 localhost/admin/home/2/2232323請求的JSP頁面內容返回到瀏覽器中,此時,瀏覽器中的URL仍舊是 localhost/admin/home/2/2232323 ,但是我在JSP頁面中使用下面的代碼獲取請求的URL:
    String pageUrl = request.getRequestURI();
    卻變成了JSP的全路徑 : /WEB-INF/blog/blog_template.jsp而不是 我想要的 /admin/home/2/2232323,這是 怎么回事?
    技術問答
    2016-12-29 10:40:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 在ie9下上傳圖片,提示對象不支持“handleError”屬性或方法 ajaxfileupload.js,請問怎么解決,各位大神幫幫忙,謝謝啊
    技術問答
    2015-11-27 14:02:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 寫了一個簡單的easyUI的頁面,但是為什么不有效果,高手幫忙解決一下
    技術問答
    2016-12-11 12:54:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    我用java替換jsp模板占位符,并生成JSP具體頁面時,發(fā)現一個問題,只要是要生成的內容中包含#{}的內容,替換后,再訪問這個頁面就會報錯。
    數據庫中的要替換jsp占位符的 content 內容如下:
    #{sdfsd}
    代碼如下,功能是將content的內容替換jsp頁面中的'###content###'占位符:
    String content = htmlToText(blog.getBlogContent()); templateContent = templateContent.replaceAll("###content###",content);
    htmlToText方法代碼如下:
    /** * 轉義#和$ * @param str 要轉義的內容 add by www.blog-china.cn * @return */ privateString htmlToText(String str) { String [] regExStrs = {"#","\$"}; str = str.replaceAll(regExStrs[0],"\\\\#"); str = str.replaceAll(regExStrs[1],"\\\$"); returnstr; }


    項目代碼生成的過程中不報錯,但是當訪問這個生成的Jsp頁面時,就會報如下的錯誤:
    org.apache.jasper.JasperException: /WEB-INF/blog_file/guopengfei/1/1477405966557.jsp (line:14, column:9) #{...} is not allowed in template text at org.apache.jasper.compiler.DefaultErrorHandler.jspError(DefaultErrorHandler.java:42) at org.apache.jasper.compiler.ErrorDispatcher.dispatch(ErrorDispatcher.java:443)




    急求大神如何解決將包含#{}的內容轉義?注意,要替換的內容中不管包含任何內容,都不應該被解析,比如即使要替換的內容包含#{userName}、或者${userName }等類似的el表達式字符串,生成的jsp頁面也不應該在解析成一個el表達式,而是鴛鴦輸出 #{userName}、或者${userName } 字符。
    技術問答
    2016-10-31 10:08:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    rt
    代碼如下其中pubdate為date類型這里的2015是個String類型 如何進行轉換將string類型轉換為date類型
    2015
    請大神不吝賜教
    技術問答
    2016-10-26 11:39:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    為什么對從數據庫遍歷出來的數據進行一些判斷操作比如性別為男的字體變?yōu)榧t色操作無法完成?
    jsp頁面中 代碼如下:
    ${s.name}
    為什么字體不變色?



    技術問答
    2016-09-19 11:18:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    在form表單提交的的數據中如果包含類似的代碼


    那么,怎么能在前段頁面正常顯示用戶提交的數據,而不是直接運行了?
    還有,假如用戶向編輯自己在表單中提交的上述數據,那么如何在input輸入框中正常顯示用戶提交的內容?

    如下,如果用戶在form表單中提交了上面的代碼,那么就應該在頁面上顯示上面的代碼,而不是直接運行,用戶編輯時,在input輸入框中顯示的也應該是上面的那些代碼,這個應該怎么實現?


    技術問答
    2016-09-17 22:50:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    請問圖片上傳一般是傳到什么地方?項目源文件 還是 項目的部署目錄?
    1、傳到項目的源文件目錄下 需要 路徑硬編碼,即(D:/img)。這種方式好像不推薦。。
    2、傳到項目的部署目錄下的話如果服務器重啟圖片什么的就都清空了。。
    所以現在好糾結該寫在什么地方
    技術問答
    2016-08-30 19:54:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    在中國銀聯商戶客戶技術平臺上有一個關于json的問題,不知道具體有啥作用和它的具體使用?請大神指導一下
    技術問答
    2016-07-20 08:57:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> <%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%> <%@ taglib prefix="s" uri="/struts-tags" %> <% String path = request.getContextPath(); String basePath = request.getScheme()+"://"+request.getServerName()+":"+request.getServerPort()+path+"/"; %> 首頁


    技術問答
    2016-07-12 19:51:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    今天在進行cas單點登錄系統測試時,修改了cas 服務器端案例自帶的頁面,部署運行時,發(fā)現頁面在顯示中文時,出現亂碼現象...但是,修改的頁面都是中文utf-8的編碼,所以,想不通,求指導哈子啊??!
    技術問答
    2013-11-08 15:16:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>> 大神們,請問怎么在頁面輸入框輸入數字后,該數字限制了后面還有幾個輸入框?
    技術問答
    2016-06-20 16:35:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    在網上查了很多資料,都沒有說的很清楚的。
    我知道在namenode上通過命令 hadoop jar 的方式來提交mapreduce任務,但是在正真程序執(zhí)行的時候不會是用手工去執(zhí)行hadoop命令吧!
    最近查了很多資料,竟然沒有這方面的資料,我就想知道正真項目中是怎么允許一個mapreduce的。
    技術問答
    2015-05-22 07:19:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    相比于Hive,哪些場景下必須使用mr編程呢? Hive現在功能越來越完善,以后會不會替代掉mr?
    技術問答
    2017-09-07 16:03:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    mapreduce 怎么讀取 hdfs 上的zip包文件
    技術問答
    2017-09-14 15:26:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    這兩天遇到了一個比較詭異的問題,就是編輯Hive的UDF函數,并提交需要執(zhí)行MapReduce的SQL后,提示報錯
    org.apache.hadoop.hive.ql.exec.UDFArgumentException: The UDF implementation class 'xxxxx' is not present inthe class path
    具體代碼如下
    ```
    package com.mzm.transformer.hive;
    import com.mzm.common.GlobalConstants;
    import com.mzm.utils.JdbcManager;
    import org.apache.commons.lang.StringUtils;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.hive.ql.exec.UDF;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import java.sql.Connection;
    import java.sql.PreparedStatement;
    import java.sql.ResultSet;
    import java.sql.SQLException;
    import java.util.LinkedHashMap;
    import java.util.Map;
    /**
    * 獲取訂單信息的UDF
    * Created by Administrator on 2017/7/12.
    */
    public class OrderInfoUDF extends UDF {
    //數據庫連接
    private Connection conn = null;
    //緩存
    private Map cache = new LinkedHashMap() {
    @Override
    protected boolean removeEldestEntry(Map.Entry eldest) {
    return cache.size() > 100;
    }
    };
    public OrderInfoUDF() {
    Configuration conf = new Configuration();
    conf.addResource("transformer-env.xml");
    try {
    conn = JdbcManager.getConnection(conf, GlobalConstants.WAREHOUSE_OF_REPORT);
    } catch (SQLException e) {
    throw new RuntimeException("創(chuàng)建MySQL連接異常", e);
    }
    //添加一個鉤子進行關閉操作
    Runtime.getRuntime().addShutdownHook(new Thread(new Runnable() {
    public void run() {
    JdbcManager.close(conn, null, null);
    }
    }));
    }
    /**
    * 根據訂單ID和標志位,獲取對應的訂單值
    *
    * @param orderId
    * @param flag
    * @return
    */
    public Text evaluate(Text orderId, Text flag) {
    if (orderId == null || flag == null || StringUtils.isBlank(orderId.toString().trim()) ||
    StringUtils.isBlank(flag.toString().trim())) {
    throw new IllegalArgumentException("參數異常,訂單id不能為空");
    }
    String order = orderId.toString();
    InnerOrderInfo info = fetchInnerOrderInfo(order);
    Text defaultValue = new Text(GlobalConstants.DEFAULT_VALUE);
    String str = flag.toString();
    if ("pl".equals(str)) {
    return info == null || StringUtils.isBlank(info.getPlatform()) ? defaultValue : new Text
    (info.getPlatform());
    }
    if ("cut".equals(str)) {
    return info == null || StringUtils.isBlank(info.getCurrencyType()) ? defaultValue : new
    Text(info.getCurrencyType());
    }
    if ("pt".equals(str)) {
    return info == null || StringUtils.isBlank(info.getPaymentType()) ? defaultValue : new Text
    (info.getPaymentType());
    }
    throw new IllegalArgumentException("參數異常flag必須為(pl,cut,pt)中的一個,給定的是:" + flag);
    }
    /**
    * 根據訂單ID,獲取訂單金額
    *
    * @param orderId
    * @return
    */
    public IntWritable evaluate(Text orderId) {
    if (orderId == null || StringUtils.isBlank(orderId.toString().trim())) {
    throw new IllegalArgumentException("參數異常,訂單id不能為空");
    }
    String order = orderId.toString();
    InnerOrderInfo info = fetchInnerOrderInfo(order);
    return info == null ? new IntWritable(0) : new IntWritable(info.getAmount());
    }
    /**
    * 根據訂單ID,獲取訂單的信息
    *
    * @param orderId
    * @return
    */
    private InnerOrderInfo fetchInnerOrderInfo(String orderId) {
    InnerOrderInfo info = cache.get(orderId);
    if (info != null) {
    return info;
    }
    PreparedStatement pstmt = null;
    ResultSet rs = null;
    info = new InnerOrderInfo();
    try {
    pstmt = conn.prepareStatement("select order_id,platform,s_time,currency_type,payment_type," +
    "amount from order_info where order_id=?");
    int i = 0;
    pstmt.setString(++i, orderId.toString().trim());
    rs = pstmt.executeQuery();
    if (rs.next()) {
    info.setOrderId(rs.getString("order_id"));
    info.setPlatform(rs.getString("platform"));
    info.setCurrencyType(rs.getString("currency_type"));
    info.setPaymentType(rs.getString("payment_type"));
    info.setsTime(rs.getLong("s_time"));
    info.setAmount(rs.getInt("amount"));
    }
    return info;
    } catch (SQLException e) {
    throw new RuntimeException("查詢數據庫時發(fā)生異常", e);
    } finally {
    JdbcManager.close(null, pstmt, rs);
    }
    }
    /**
    * 內部類
    */
    private static class InnerOrderInfo {
    private String OrderId;
    private String currencyType;
    private String paymentType;
    private String platform;
    private long sTime;
    private int amount;
    public InnerOrderInfo() {
    }
    public InnerOrderInfo(String orderId, String currencyType, String paymentType, String platform,
    long sTime, int amount) {
    OrderId = orderId;
    this.currencyType = currencyType;
    this.paymentType = paymentType;
    this.platform = platform;
    this.sTime = sTime;
    this.amount = amount;
    }
    public String getOrderId() {
    return OrderId;
    }
    public void setOrderId(String orderId) {
    OrderId = orderId;
    }
    public String getCurrencyType() {
    return currencyType;
    }
    public void setCurrencyType(String currencyType) {
    this.currencyType = currencyType;
    }
    public String getPaymentType() {
    return paymentType;
    }
    public void setPaymentType(String paymentType) {
    this.paymentType = paymentType;
    }
    public String getPlatform() {
    return platform;
    }
    public void setPlatform(String platform) {
    this.platform = platform;
    }
    public long getsTime() {
    return sTime;
    }
    public void setsTime(long sTime) {
    this.sTime = sTime;
    }
    public int getAmount() {
    return amount;
    }
    public void setAmount(int amount) {
    this.amount = amount;
    }
    }
    }
    ```
    具體報錯信息如下:
    ```
    hive (default)> select order_information(oid,'pl') as pl,from_unixtime(cast(s_time/1000 as bigint),'yyyy-MM-dd') as date,order_information(oid,'cut') as cut,order_information(oid,'pt') as pt,count(distinct oid) as orders from event_logs where en='e_cs' and pl is not null and s_time>=unix_timestamp('2017-07-05','yyyy-MM-dd')*1000 and s_timeDiagnostic Messages for this Task:
    Error: java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:109)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:75)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:133)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:446)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:343)
    at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:168)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:422)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1642)
    at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:163)
    Caused by: java.lang.reflect.InvocationTargetException
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:106)
    ... 9 more
    Caused by: java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:109)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:75)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:133)
    at org.apache.hadoop.mapred.MapRunner.configure(MapRunner.java:38)
    ... 14 more
    Caused by: java.lang.reflect.InvocationTargetException
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:106)
    ... 17 more
    Caused by: java.lang.RuntimeException: Map operator initialization failed
    at org.apache.hadoop.hive.ql.exec.mr.ExecMapper.configure(ExecMapper.java:157)
    ... 22 more
    Caused by: org.apache.hadoop.hive.ql.exec.UDFArgumentException: The UDF implementation class 'com.mzm.transformer.hive.OrderInfoUDF' is not present in the class path
    at org.apache.hadoop.hive.ql.udf.generic.GenericUDFBridge.initialize(GenericUDFBridge.java:143)
    at org.apache.hadoop.hive.ql.udf.generic.GenericUDF.initializeAndFoldConstants(GenericUDF.java:116)
    at org.apache.hadoop.hive.ql.exec.ExprNodeGenericFuncEvaluator.initialize(ExprNodeGenericFuncEvaluator.java:127)
    at org.apache.hadoop.hive.ql.exec.GroupByOperator.initializeOp(GroupByOperator.java:216)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:376)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:460)
    at org.apache.hadoop.hive.ql.exec.Operator.initializeChildren(Operator.java:416)
    at org.apache.hadoop.hive.ql.exec.SelectOperator.initializeOp(SelectOperator.java:65)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:376)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:460)
    at org.apache.hadoop.hive.ql.exec.Operator.initializeChildren(Operator.java:416)
    at org.apache.hadoop.hive.ql.exec.FilterOperator.initializeOp(FilterOperator.java:83)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:376)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:460)
    at org.apache.hadoop.hive.ql.exec.Operator.initializeChildren(Operator.java:416)
    at org.apache.hadoop.hive.ql.exec.TableScanOperator.initializeOp(TableScanOperator.java:189)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:376)
    at org.apache.hadoop.hive.ql.exec.MapOperator.initializeOp(MapOperator.java:427)
    at org.apache.hadoop.hive.ql.exec.Operator.initialize(Operator.java:376)
    at org.apache.hadoop.hive.ql.exec.mr.ExecMapper.configure(ExecMapper.java:136)
    ... 22 more
    FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask
    MapReduce Jobs Launched:
    Stage-Stage-1: Map: 1 Reduce: 1 HDFS Read: 0 HDFS Write: 0 FAIL
    Total MapReduce CPU Time Spent: 0 msec
    ```
    jar包也打了好幾次了,都是報一樣的錯誤,但是只有這個UDF函數報錯,其他的UDF函數就沒有問題,能正常執(zhí)行HQL(無論是否需要MapReduce),甚至是使用這個UDF函數執(zhí)行諸如select order_info(oid) from event_logs這類無需MapReduce的HQL,都能正常執(zhí)行,但就執(zhí)行是需要MapReduce的HQL報錯。
    被這個問題給折騰死了,求各位大神幫忙看看
    技術問答
    2017-07-13 21:04:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    Hbase是1.03版本,Hadoop是2.6版本。這兩個版本包含的jar包巨多,是要把Hbase的包拷貝到Hadoop里,還是Hadoop里的包拷貝到Hbase里?拷貝哪些包放哪個位置?
    技術問答
    2017-06-14 08:42:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    1. 服務器上:hadoop-2.3.0-cdh5.1.3 、centos
    本地eclipse遠程連接的hadoop,運行mapreduce程序成功,但是控制臺 沒有 日志(就是map跑了X%,reduce跑了X%這樣的日志 木有 )。我看到別人的都是這樣的,華麗麗的一大堆日志?。?
    。。。。。
    而我的卻是這樣的:
    我的控制臺就這樣無疾而終了,它就是這么干凈利落!
    我表示不能接受啊,要不是我跑到hdfs下看了一下結果,我都不知道它這是腫么了。
    為神馬我和別人的差距就這么大,就輸出這兩行就表示結束了。
    雖然我很懶,但是程序你這樣學習我也不行啊,這樣讓我往后如何判斷你是否跑成功了。
    不可能每次都跑到服務器上瞅瞅,也不可能每次都打開一個網頁找結果日志吧。

    萬能的開源中國,廣大的中華好兒女,請告訴我,我該咋整,才能把這爛玩意搞定~
    THANKS
    技術問答
    2014-11-20 15:42:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    從08年的云計算到現在的大數據,還只會搭建hadoop環(huán)境的小朋友,我就不說什么了。沒有接觸過hadoop的同學,也不必迷茫。
    現在各大公司的要求,普遍需要2-3年的經驗,不過只要你技術過硬,這也都是浮云。如果你只會搭建環(huán)境,我想機會也不大吧?
    大數據是一個概念,hadoop是來實現這個概念的工具、技術,它們之間并沒有絕對的聯系。Hadoop作為一代分布式系統的基礎,特別是第二代Hadoop YARN推出以后,這個位置更加牢固。目前在市面上并沒有可以與之相匹敵的系統存在。
    怎么才能學好Hadoop,進入大數據的世界,這里給幾點建議:
    1.首先,不管你之前有沒有接觸過hadoop,或者你在某個方向特別牛逼,你都要有空杯心態(tài),這才是學習的根據。
    2. 你要有編程基礎,比如Java,C,python,linux,不一定要在某個方向多么牛逼,有這些基礎學起來就會很快上手。
    3. 詳細研究,現在大型網站包括Sina,騰訊網(門戶),Weibo(微博),天貓,京東(電商)的架構與實現,先從自己的角度去理解,然后去跟實際情況做比對,提升自己對數據和技術的敏感程度。
    4.熟悉,理解,并運用Hadoop對于你以后在大型計算機公司任職非常重要(阿里,騰訊,百度內部的系統或多或少都是借鑒于Hadoop的)。
    5. 科班的同學,在學校的以基礎為根基,在公司的以業(yè)務為導向,這樣的技術才不盲目,這樣的技術才腳踏實地。
    6.不過,Hadoop說到底只是一項分布式系統的工具,學習的本質是:理解分布式系統設計中的原則以及方法,例如負載均衡,故障恢復,并發(fā)程序設計,并發(fā)數據結構,等等。理解這些設計原理,并走入底層讀懂每一行Hadoop的源碼更加的重要
    對很多人來說,技術都不是一生的職業(yè)導向,那么,提升自己的眼界,站在更高的角度思考問題就顯得尤為重要,從自己,到團隊,公司,再到整個業(yè)界,眼界寬廣了,技術也就是你的左膀右臂。
    hadoop只是云計算的一隅,任何東西學的深入了都會發(fā)生質變。
    免費送大家一套hadoop課程
    授課老師是百度 hadoop 核心架構師,內容包括hadoop入門、hadoop生態(tài)架構以及大型hadoop商業(yè)實戰(zhàn)案例。 講的很細致, MapReduce 就講了 15 個小時。 學完后可以勝任 hadoop 的開發(fā)工作,很多人學的這個課程找到的工作。 (包括指導書、練習代碼、和用到的軟件都打包了) 加微信ganshiyu1026,備注OSchina。即可免費領取
    如果你對hadoop感興趣可以訪問我的博客: https://my.oschina.net/ijj/blog
    技術問答
    2017-04-10 16:56:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    想要從股票軟件中,把實時數據提取出來,放到數據庫里,該用什么樣的技術來實現???
    譬如開盤之后 主力資金 這樣的數據,想要從軟件里面監(jiān)測并提取出來,該如何實現?要用什么工具來實現。
    技術問答
    2017-01-16 10:43:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    最近想調一下TLD目標跟蹤,下了作者的代碼。發(fā)現是matlab和vs混編的。我的環(huán)境是win7 32bit + vs2012 + matlab2013a + opencv3.0
    按照下面兩個網頁的教程在調試
    http://www.cnblogs.com/dongzhao/p/4884517.html
    http://www.lai18.com/content/1677593.html
    但是在跑compile.m時報錯了

    PC
    正在創(chuàng)建庫 C:
    技術問答
    2017-01-24 17:24:00
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    @裴松年 你好,想跟你請教個問題:
    這里面那個 getGaosiData();是什么意思?運行程序的時候這地方會報錯
    技術問答
    2015-04-13 09:33:04
    HDC調試需求開發(fā)(15萬預算),能者速來!>>>
    我的環(huán)境: 64 位 win8 , Qt5.5.1(x86-mingw492) , matlabR2014a , VS2013

    我想要實現的功能:將目前用 matlab 寫好的程序在 matlab 下編譯生成 dll , lib , h 等文件,采用 Qt 調用這些文件,達到調用 matlab 程序實現其功能的目的!

    網上有類似的例子,可是我按著做就是編譯不過去!!可能我全是 64 位的,例子是 32 位的???

    例子http://blog.sina.com.cn/s/blog_4dc31b560100qqcw.html

    就先用例子給的 matlab 示例試驗一下

    function b = myFunc(a)
    %MYFUNC Summary of this function goes here
    % Detailed explanation goes here
    b=a.*a;
    end
    以下是我的 matlab 生成 dll 等文件的操作

    ( 先在命令行窗口輸入 mex -setup 然后選擇編譯器 mex -setup C++ ,再輸入 mbuild -setup ,然后選擇 mex -setup C++ -client MBUILD ,最后用 mcc -W cpplib:libmyFunc -T link:lib myFunc 命令生成 dll 等文件 )

    >> mex -setup
    MEX 配置為使用 'Microsoft Visual C++ 2013 Professional (C)' 以進行 C 語言編譯。
    Warning: The MATLAB C and Fortran API has changed to support MATLAB
    variables with more than 2^32-1 elements. In the near future
    you will be required to update your code to utilize the
    new API. You can find more information about this at:
    http://www.mathworks.com/help/matlab/matlab_external/upgrading-mex-files-to-use-64-bit-api.html.


    要選擇不同的語言,請從以下選項中選擇一種命令 :
    mex -setup C++
    mex -setup FORTRAN
    MEX 配置為使用 'Microsoft Visual C++ 2013 Professional' 以進行 C++ 語言編譯。
    Warning: The MATLAB C and Fortran API has changed to support MATLAB
    variables with more than 2^32-1 elements. In the near future
    you will be required to update your code to utilize the
    new API. You can find more information about this at:
    http://www.mathworks.com/help/matlab/matlab_external/upgrading-mex-files-to-use-64-bit-api.html.
    >> mbuild -setup
    MBUILD 配置為使用 'Microsoft Visual C++ 2013 Professional (C)' 以進行 C 語言編譯。


    要選擇不同的語言,請從以下選項中選擇一種命令 :
    mex -setup C++ -client MBUILD
    mex -setup FORTRAN -client MBUILD
    MBUILD 配置為使用 'Microsoft Visual C++ 2013 Professional' 以進行 C++ 語言編譯。
    >> mcc -W cpplib:libmyFunc -T link:lib myFunc
    使用 'Microsoft Visual C++ 2013 Professional' 編譯。
    MEX 已成功完成。

    然后在 qt 中新建工程項目,名 untitled9 ,然后按照例子一步一步做,該修改的修改,以下是我的 .pro 文件

    #-------------------------------------------------
    #
    # Project created by QtCreator 2016-01-12T13:27:48
    #
    #-------------------------------------------------
    QT += core gui
    greaterThan(QT_MAJOR_VERSION, 4): QT += widgets

    TARGET = untitled9
    TEMPLATE = app
    SOURCES += main.cpp\
    mainwindow.cpp
    HEADERS += mainwindow.h \
    libmyFunc.h
    FORMS += mainwindow.ui
    OTHER_FILES += \
    libmyFunc.lib \
    libmyFunc.dll \
    INCLUDEPATH += D:/MATLAB/R2014a/extern/include
    INCLUDEPATH += D:/MATLAB/R2014a/extern/include/win64
    LIBS+=-L D:/MATLAB/R2014a/extern/lib/win64/microsoft -llibmx
    LIBS+=-L D:/MATLAB/R2014a/extern/lib/win64/microsoft -lmclmcr
    LIBS+=-L D:/MATLAB/R2014a/extern/lib/win64/microsoft -lmclmcrrt
    以下是我的 .cpp 文件

    #include "mainwindow.h"
    #include "ui_mainwindow.h"
    #include
    #include
    #include
    #include
    #include
    #include
    #include "libmyFunc.h"
    MainWindow::MainWindow(QWidget *parent) :
    QMainWindow(parent),
    ui(new Ui::MainWindow)
    {
    ui->setupUi(this);
    }
    MainWindow::~MainWindow()
    {
    delete ui;
    }
    typedef bool MW_CALL_CONV(*Fun)(int,mxArray**,mxArray*); // 定義函數指針,以備調用
    typedef bool MW_CALL_CONV(*Fun2)(void);
    typedef bool MW_CALL_CONV(*Fun3)(void);
    void MainWindow::on_pushButton_clicked()
    {
    QLibrary lib("libmyFunc.dll");
    QMessageBox msg;
    if(lib.load())
    {
    QMessageBox::information(NULL,"OK","DLL load is OK!");
    Fun open=(Fun)lib.resolve("_mlfMyFunc"); // 援引 _mlfMyFunc() 函數
    Fun2 init=(Fun2)lib.resolve("_myfuncdllInitialize");// 援引 _myfuncdllInitialize() 函數
    Fun2 termi=(Fun3)lib.resolve("_myfuncdllTerminate");// 援引 _myfuncdllTerminate() 函數
    if (open) // 是否成功連接上 add() 函數
    {
    QMessageBox::information(NULL,"OK","Link to Function is OK!");
    init(); // 庫初始化
    double _x[5] = {1, 2, 3, 4, 5}; // 輸入數組
    double _y[5]; // 輸出數組
    mxArray* x = mxCreateDoubleMatrix(1, 5, mxREAL);// 創(chuàng)建 1*5 矩陣
    memcpy(mxGetPr(x), (void*)_x, sizeof(_x)); // 拷貝輸入數據
    mxArray* y = mxCreateDoubleMatrix(1, 5, mxREAL);// 創(chuàng)建 1*5 矩陣
    open(1,&y,x);
    memcpy(_y, mxGetPr(y), sizeof(_y));// 拷貝輸出數據
    QString song=QString::number(_y[1]);
    QMessageBox::information(NULL,"OK",song);
    termi();// 結束 DLL 庫
    }
    else
    QMessageBox::information(NULL,"NO","Linke to Function is not OK!!!!");
    }
    else
    QMessageBox::information(NULL,"NO","DLL is not loaded!");
    }
    運行報錯如下:

    查看了一下第一個錯誤:

    追蹤了一下:

    這個 mclmcr.h 是 matlab 下 D:\MATLAB\R2014a\extern\include 里面提供的頭文件,就卡在這里,往下不知道該怎么改了!急求大神高手幫幫忙! ~~ 任務緊急,老板催著呢。。。謝謝好心人??!
    技術問答
    2016-01-12 15:22:00