久久精品日韩无码|61伊人久久绿帽|最新国产浮力网站|亚州aV无码国产|明星一二三区av|超碰人人在线成人|澳门无码福利av

信息化項目銷售面試題?

時間:2024-05-07 17:24 人氣:0 編輯:admin

一、信息化項目銷售面試題?

1.你為什么想做銷售工作? 這個問題對于工業(yè)專業(yè)出身的人來說有些不好回答,但是更重要的是你的實習經驗,公司其實也沒有必要回到學校請mba來做這個職位。盡量讓你的回答具體,最好用舉例子的方法列舉你以前的成功經驗。并且讓招聘方認為你具有做好這個工作的潛質。

 2.你認為本身最大的長處是什么? 這里你需要回答你如何與同伴合作,你是一個銷售人員,需要有動力爆發(fā)力和前進的精神。這些都是這個工作所必不成少的基本技能。如果你有別的方面銷售天賦,那只能說你就天生是用來做銷售的。 

3.你認為本身最大的弱點是什么? 在這種面試的情況下,請你不要說出本身有特別明顯的缺點,或者說不要說出你應聘的職位最需要的缺點,可以談一些不足,或者本身做不好的一些例子,但是不要因為謙虛,讓招聘方認為你是一無可取的。這是最最重要的一點。 

 4.如何評價你本身? 這個問題是招聘方考察你的個人表達能力和認識能力的問題。你可以突出本身的一些優(yōu)點,但是不要說得過于直白,同時要強調本身的能力比力適合做銷售工作,這里技巧很重要。同時說話要機智,也可以適當加些小幽默,顯示你天生有與人交際的能力,這對于銷售工作來說是很重要的。 

5.你認為你具備什么樣的技能適應這份工作? 其實這個問題和上一個問題很相似,但是你回答不能雷同,雖然要表達的可能是同一個意思,但是決不能一模一樣,要適當?shù)挠凶兓?,來表現(xiàn)你的應變能力。能應付好招聘方的人對于銷售工作也能做得不錯。同時,這也在考查你的耐心,因為可能顧客的要求要麻煩得多,多次解釋或者換一個角度解釋也是必備能力之一。 

 6.工資對你有多重要? 不要說得很重要,因為如果做到必然的份額,工資自然會很高,但是也不要完全不在乎,因為銷售是做生意,必然程度上有錢的意識也是必要的??梢韵葐栆幌鹿究梢蕴峁┑?,本身只要看能否接受就可以,或者說適量就可以。  

7.請你講一個好笑的笑話? 這是一個看似很簡單的問題,但是你會發(fā)現(xiàn)關鍵時刻能講一個好笑的笑話也是一件很難的事情。這個問題,其實也是在考察你與人交際的能力。良好的客戶意識和滿足客戶需要的能力,是這個問題的回答要點。講不達時宜的冷笑話和又不好色彩的笑話是這個問題的大忌,不管它們有多好笑,都會使他們對你的品行產生不好的影響。所以千萬要小心的講看似輕松的笑話。

8.為什么你對銷售工作比其他職位更有興趣? 這個問題需要從兩方面回答。一個是從銷售本身來說,你認為它有什么優(yōu)勢或者令你著迷的地方,你會專心致志的投入這個工作,但是切忌不能說別的職位就不好,這會讓招聘方表情步愉快,并且你有可能會被調配,所以謂了不喪失工作機會,要三思而后言。另一個方面就是你個人的特點,因為個人能力和興趣,更適合銷售工作,這樣會給招聘方留下相當良好的印象,收到事半功倍的效果。 

9.如果每天讓你給客戶突然打銷售電話你會怎么辦? 沒有人愿意每天給客戶突然打銷售電話,因為這樣收到冷遇的情況很多。

二、銷售面試題:茶幾有瑕疵,客戶說樣板都這樣,我怎么相信到我家就一定是好的,怎么回答?

什么瑕疵?這個瑕疵是因為樣品的折舊導致的,還是產品本身的問題?如果是產品本身有瑕疵,那你就給客戶介紹另外一款產品沒有瑕疵的產品。做銷售的本質是幫客戶解決問題,不是做一錘子買賣。如果是樣品的折舊問題,你告訴客戶,這個樣品有這個瑕疵是折舊問題,全新的產品絕對不會這樣,你可以在給客戶的收款收據(jù)注明,如果新產品出現(xiàn)這種瑕疵,全額退款,還免費送他一個新的,然后讓他趕緊去交錢。發(fā)貨前自己檢查一次,再拍個美美的照片給客戶,下次客戶還會找你

三、銷售面試題。就室內一盆花,面試官讓你推銷給他怎么說?

你好!只要遇到這樣的面試,我建議你扭頭就走,原因如下:

1、銷售辨證力是長期鍛煉的過程,這個能力是基于產品功能或服務價值的基礎,如果太刻意追求這個,只能說明這個企業(yè)的產品很惡心,或者說這個企業(yè)的營銷布局很低能!

2、類似風格是直接把外國的思想帶進中國市場的做法,和上面一樣,問題本身缺乏變通,這樣面試出來的人,能說不會做。銷售思想和銷售實戰(zhàn)是兩回事。這個面試官是外行!

3、如果想練練腦子,不防可以從花的主要特征來反映。不同的花對應不同的群體,花本身反映的是人的修養(yǎng)、心態(tài)、愛好;同時,花也是風水擺件的重要組成部分。

四、銷售面試題。給你一瓶水,售500元/瓶,讓你推銷給面試官?怎么描述推銷?

讓面試官先喝了,再問他收錢,不然打死他.反正售500元/瓶和搭劫沒區(qū)別.先劫個千百塊,有時間再劫個色.

五、招聘銷售人員面試題?

針對招聘銷售人員,面試者可以根據(jù)所應聘的具體職位準備相應的表現(xiàn)題,如:

1. 你何時開始擔任銷售工作?

2. 你是如何保持銷售業(yè)績的?

3. 在客戶提出投訴時,你會怎么做?

4. 你有何特色服務和技能?

5. 你在工作中有何不同的拓展方法來增加銷售業(yè)績?等等。

六、銷售應變能力面試題?

首先我們需要了解面試者銷售能力,如果是做過銷售的人,這個時候可以通過了解他們的過往業(yè)績,去判斷他們的銷售能力,也能夠從而判斷出是否符合公司需求。銷售的溝通能力、語言能力是不可缺的,HR在面試過程中,可以多給他們設置一些問題,通過這些問題的回答,可以判斷出這個面試者的溝通能力。

銷售人員須具備較強的客戶服務意識、靈活的溝通技巧、較強的銷售能力和工作積極主動等素質,

七、應聘銷售經理必問的十個面試題目?

1.請舉例說明一下你的最好銷售業(yè)績。

2.你認為帶領一個銷售團隊進步的最重要事情是什么?

3.請舉例說明什么是有效的客戶渠道?

4.你手機通訊錄和微信有多少客戶?

5.如果客戶拒絕你的推銷,怎么辦?

6.請說說五一促銷計劃如何實施達到最佳業(yè)績?

八、房產銷售應變類面試題

房產銷售應變類面試題

在如今競爭激烈的房地產市場,作為一名房產銷售人員,要想在面試中脫穎而出,除了對于基本的銷售技巧和房地產相關知識的掌握外,應變能力也是一個非常重要的因素。在這篇文章中,我們將為您介紹一些常見的房產銷售應變類面試題,并給出解答的建議,幫助您在面試中更好地展示自己的能力。

1. 當遇到客戶反對價格過高的時候,您會如何回應?

面對客戶對于房產價格的質疑,作為銷售人員,我們需要以專業(yè)的態(tài)度和知識給出合理的解答。首先,我們可以通過介紹房屋的優(yōu)勢和價值來為價格辯解,比如房屋的地理位置、社區(qū)配套設施、裝修品質等。同時,我們還可以提供市場的比價分析,將房屋的價格與周邊相似房屋的價格進行比較,從而讓客戶更加了解市場行情和房屋的實際價值。

2. 如果客戶對于房屋環(huán)境有所擔心,您會如何安撫他們的疑慮?

在房地產銷售中,客戶對于房屋環(huán)境的擔憂是一個非常常見的問題,作為銷售人員,我們需要給予客戶足夠的信任和安全感。首先,我們可以通過介紹小區(qū)的環(huán)境、綠化率、周邊設施等來消除客戶的顧慮。此外,如果可能的話,我們還可以帶上客戶實地參觀房屋,讓他們親自感受房屋的環(huán)境和周邊的生活氛圍,進一步增強他們的信任和滿意度。

3. 當客戶詢問房屋存在的問題時,您會如何回答?

面對客戶對于房屋問題的詢問,我們需要坦誠以對并且提供專業(yè)的解決方案。首先,我們可以對客戶提出的問題進行認真的分析和研究,明確問題的原因和解決方法。然后,結合我們自身的經驗和專業(yè)知識,給出客戶一個滿意的答復,并且提供解決問題的方案。同時,我們還可以向客戶介紹一些成功的案例,讓他們了解到我們的專業(yè)能力和解決問題的經驗。

4. 如何應對客戶情緒波動大的情況?

在房產銷售中,客戶情緒的波動是一個非常普遍的現(xiàn)象,作為銷售人員,我們需要以冷靜和耐心的態(tài)度來應對。首先,我們要做到全程傾聽,讓客戶充分發(fā)泄情緒,同時保持冷靜和理智。然后,我們需要正確理解客戶的需求和關注點,通過積極溝通和解釋,幫助他們理性地分析問題,并找到合適的解決方案。最后,我們要給予客戶足夠的關懷和支持,讓他們感受到我們的誠意和真誠,從而緩解他們的情緒波動。

5. 當客戶對于簽訂合同有所猶豫時,您會如何引導他們做出決策?

在房地產銷售過程中,客戶可能會對于簽訂合同有所猶豫,這時作為銷售人員,我們需要引導客戶做出決策。首先,我們可以針對客戶的疑慮和擔憂進行解答,讓他們了解到簽訂合同的重要性和優(yōu)勢。同時,我們還可以提供一些相關的證據(jù)和數(shù)據(jù),讓客戶明確房屋的價值和潛在的收益。此外,我們還可以引用一些客戶的成功案例,讓他們看到簽訂合同的好處和成功的可能性,從而鼓勵他們做出決策。

總結

房產銷售應變類面試題是一個考驗銷售人員綜合能力的重要環(huán)節(jié)。在面試中,我們需要展現(xiàn)出自己的專業(yè)知識和銷售技巧,同時也要體現(xiàn)出自己良好的應變能力和溝通能力。通過合理的解答和有效的溝通,我們可以給面試官留下深刻的印象并提高自己的競爭力。希望以上內容對于您在房產銷售面試中有所幫助。

九、談談你對銷售的認識,面試題,應該怎么答才好?謝謝?

我覺得銷售是一個可以鍛煉人的工作,可以把自己的優(yōu)勢充分發(fā)揮出來,很有挑戰(zhàn)的工作,銷售可以幫公司以及自己實現(xiàn)人生目標的價值,為公司直接帶來經濟利益,也為我?guī)韺Φ鹊幕貓?,現(xiàn)在銷售行業(yè)競爭激烈,現(xiàn)在做銷售也是在做服務,服務做好了就有了人脈,人脈才是銷售的關鍵!所以,做銷售一定要先學會做人,只有這樣才能是一個成功的銷售!有前途的銷售!

十、mahout面試題?

之前看了Mahout官方示例 20news 的調用實現(xiàn);于是想根據(jù)示例的流程實現(xiàn)其他例子。網(wǎng)上看到了一個關于天氣適不適合打羽毛球的例子。

訓練數(shù)據(jù):

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

檢測數(shù)據(jù):

sunny,hot,high,weak

結果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代碼調用Mahout的工具類實現(xiàn)分類。

基本思想:

1. 構造分類數(shù)據(jù)。

2. 使用Mahout工具類進行訓練,得到訓練模型。

3。將要檢測數(shù)據(jù)轉換成vector數(shù)據(jù)。

4. 分類器對vector數(shù)據(jù)進行分類。

接下來貼下我的代碼實現(xiàn)=》

1. 構造分類數(shù)據(jù):

在hdfs主要創(chuàng)建一個文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

數(shù)據(jù)文件格式,如D1文件內容: Sunny Hot High Weak

2. 使用Mahout工具類進行訓練,得到訓練模型。

3。將要檢測數(shù)據(jù)轉換成vector數(shù)據(jù)。

4. 分類器對vector數(shù)據(jù)進行分類。

這三步,代碼我就一次全貼出來;主要是兩個類 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 測試代碼

*/

public static void main(String[] args) {

//將訓練數(shù)據(jù)轉換成 vector數(shù)據(jù)

makeTrainVector();

//產生訓練模型

makeModel(false);

//測試檢測數(shù)據(jù)

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//將測試數(shù)據(jù)轉換成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失??!");

System.exit(1);

}

//將序列化文件轉換成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件轉換成向量失?。?#34;);

System.out.println(2);

}

}

public static void makeTrainVector(){

//將測試數(shù)據(jù)轉換成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失敗!");

System.exit(1);

}

//將序列化文件轉換成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件轉換成向量失??!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成訓練模型失??!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("檢測數(shù)據(jù)構造成vectors初始化時報錯。。。。");

System.exit(4);

}

}

/**

* 加載字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1時表示總文檔數(shù)

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用貝葉斯算法開始分類,并提取得分最好的分類label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("檢測所屬類別是:"+getCheckResult());

}

}

相關資訊
熱門頻道

Copyright © 2024 招聘街 滇ICP備2024020316號-38