日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > linux >内容正文

linux

Loadrunner通过ssh连接linux进行hadoop基准测试

發布時間:2024/4/14 linux 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Loadrunner通过ssh连接linux进行hadoop基准测试 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
版權聲明:本文為博主原創文章,未經博主允許不得轉載。歡迎訪問我的博客 https://blog.csdn.net/smooth00/article/details/73796622

Loadrunner通過ssh連接調用hadoop的測試Jar包進行基準測試,似乎有點討巧,而且好像實際意義也不是特別大,但是通過這個方法的展示,能夠看到Loadrunner的生命力有多大,而且在linux系統測試和開源技術的測試中,也是能夠有用武之地,所以本文算是來個拋磚引玉吧。

1、在loadrunner中新建腳本(本文以LoadRunner11為例),要求選擇協議類型為Java->Java Vuser
2、在Run-time Settings設置JDK路徑,由于LoadRunner11不支持jdk1.8,本次測試是拷貝了一份低版本的JDK1.6,所以路徑選擇固定路徑模式(Use specified JDK),當然也可以將JDK1.6配到環境變量中,LoadRunner就可以直接調了。

3、上網下載個jsch-0.1.41.jar,然后在LoadRunner中加載jsch的jar包


4、在Loadrunner中以Java Vuser協議創建腳本,腳本樣例如下:

/** LoadRunner Java script. (Build: _build_number_)* * Script Description: * */ import lrapi.lr;import java.io.BufferedReader; import java.io.InputStreamReader; import java.util.Vector; import com.jcraft.jsch.Channel; import com.jcraft.jsch.ChannelExec; import com.jcraft.jsch.JSch; import com.jcraft.jsch.JSchException; import com.jcraft.jsch.Session; import java.io.InputStream;public class Actions {private String ipAddress; private String username; private String password; public static final int DEFAULT_SSH_PORT = 22; private Vector<String> stdout; private Session session=null;private Channel channel=null;public void SSHCommandExecutor(final String ipAddress, final String username, final String password) { this.ipAddress = ipAddress; this.username = username; this.password = password; stdout = new Vector<String>();JSch jsch = new JSch(); try{session = jsch.getSession(username, ipAddress, DEFAULT_SSH_PORT); session.setPassword(password);session.setConfig("StrictHostKeyChecking", "no");//session.setUserInfo(userInfo); session.connect(); // Create and connect channel. channel = session.openChannel("exec");} catch (JSchException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (Exception e) { e.printStackTrace(); }} public int CommandExecute(final String command) { int returnCode = 0; try { ((ChannelExec) channel).setCommand(command); channel.setInputStream(null); BufferedReader input = new BufferedReader(new InputStreamReader(channel .getInputStream())); channel.connect(); System.out.println("The remote command is: " + command); // Get the output of remote command. String line; while ((line = input.readLine()) != null) { stdout.add(line); } input.close(); // Get the return code only after the channel is closed. if (channel.isClosed()) { returnCode = channel.getExitStatus(); } // Disconnect the channel and session. //channel.disconnect(); //session.disconnect(); } catch (JSchException e) { // TODO Auto-generated catch block e.printStackTrace(); } catch (Exception e) { e.printStackTrace(); } return returnCode; } public int init() throws Throwable {SSHCommandExecutor("172.17.2.12", "root", "123456");return 0;}//end of initpublic int action() throws Throwable {lr.start_transaction("exe_command");//----------------------------------------寫入2個1M的文件---------------------------------/*String commandStr="yarn jar /usr/hdp/2.3.2.0-2950/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.7.1.2.3.2.0-2950-tests.jar TestDFSIO -write -nrFiles 2 -fileSize 1";String commandLog="cat -b /root/TestDFSIO_results.log |tail -n10";*///--------------------------------------------TestDFSIO -clean---------------------------//---------------------使用12個mapper和6個reducer來創建12個文件----------------------------String commandStr="yarn jar /usr/hdp/2.3.2.0-2950/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.7.1.2.3.2.0-2950-tests.jar nnbench \\";commandStr+="\n -operation create_write -maps 12 -reduces 6 -blockSize 1 \\";commandStr+="\n -bytesToWrite 0 -numberOfFiles 12 -replicationFactorPerFile 3 \\";commandStr+="\n -readFileAfterOpen true -baseDir /benchmarks/NNBench-`hostname -s`";String commandLog="cat -b /root/NNBench_results.log |tail -n30";// ---------------------------------------------------------------------------------------// ------------------------------重復運行一個小作業10次,每次使用2個maps和1個reduces---------/*String commandStr="yarn jar /usr/hdp/2.3.2.0-2950/hadoop-mapreduce/hadoop-mapreduce-client-jobclient-2.7.1.2.3.2.0-2950-tests.jar mrbench -numRuns 10 -maps 2 -reduces 1";String commandLog="";//無日志文件,屬于動態輸出日志*///----------------------------------------------------------------------------------------CommandExecute(commandStr+" \n "+commandLog);//commandStr表示運行hadoop的命令,commandLog表示要輸出的日志for (String str : stdout) { System.out.println(str); }lr.end_transaction("exe_command", lr.AUTO);return 0;}//end of actionpublic int end() throws Throwable {try{channel.disconnect();session.disconnect();}catch(Exception e){System.out.println(e);}return 0;}//end of end }以上腳本的核心部分是CommandExecute,通過ssh連接linux執行shell命令,一般情況下運行成功后會輸出運行日志,但是hadoop基礎測試包的調用有些日志是寫到后臺中的,所以可以通過加上cat -b /root/NNBench_results.log |tail -n30這樣的命令(具體需要準確知道日志文件的所在路徑),來輸出當前執行成功后的日志(比如NNBench測試輸出的最后30行就是當前日志)。

5、運行腳本,測試通過的輸出如下所示:

6、對于Loadrunner通過C的方式遠程連接linux,也是有方法的,具體可以參考別人的文章:

http://blog.csdn.net/hualusiyu/article/details/8530319


總結

以上是生活随笔為你收集整理的Loadrunner通过ssh连接linux进行hadoop基准测试的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。