久久精品日韩无码|61伊人久久绿帽|最新国产浮力网站|亚州aV无码国产|明星一二三区av|超碰人人在线成人|澳门无码福利av

抖音蔣菲菲身高?

時間:2024-11-20 08:42 人氣:0 編輯:招聘街

一、抖音蔣菲菲身高?

       172cm蔣菲菲,內(nèi)地新銳女演員。憑借參演拉風(fēng)傳媒投資制作的全新青春校園科幻偶像劇《你好外星人》,飾演女主角林真。2014年參加樂視體育世界杯頭牌自制節(jié)目《32夜》真人秀,因黃金比例身材被網(wǎng)友封為“長腿女神”。同年當(dāng)代都市電視《情謎睡美人之欲望的姐妹》也在火熱拍攝中。

二、菲有幾個音?

菲字有兩個讀音。

“菲”,現(xiàn)代漢語規(guī)范一級字(常用字),普通話讀音為fěi、fēi,最早見于秦朝小篆時代,在六書中屬于形聲字。艸表意,篆書形體像草,表示菲是草本植物,非表聲。

“菲”的基本含義為微,薄,如菲才、菲儀;引申含義為草茂盛,香氣濃郁,如菲菲、芳菲。

三、廣州菲音 怎么樣

廣州菲音——讓您的音樂之旅更美妙

廣州菲音——讓您的音樂之旅更美妙

廣州菲音是一家致力于音樂教育的專業(yè)機構(gòu),為學(xué)習(xí)者提供全方位的音樂培訓(xùn)服務(wù)。無論您是零基礎(chǔ)小白還是有一定音樂基礎(chǔ)的高手,我們都能根據(jù)您的需求和目標量身定制最適合您的課程。下面我們來了解一下廣州菲音的特點和優(yōu)勢,以及它給學(xué)員帶來的實際效果。

廣州菲音的特點

專業(yè)團隊:廣州菲音擁有一支經(jīng)驗豐富、富有創(chuàng)造力的專業(yè)團隊。我們的老師都來自音樂專業(yè)背景,具備豐富的教學(xué)經(jīng)驗和敏銳的藝術(shù)洞察力,能夠為學(xué)員提供專業(yè)、系統(tǒng)的音樂培訓(xùn)。

多樣課程:廣州菲音提供豐富多樣的課程,涵蓋鋼琴、吉他、聲樂等多個音樂學(xué)科。不論您對何種音樂樂器或聲音感興趣,我們都能夠為您提供個性化的教學(xué)方案,幫助您快速提升音樂技能。

先進設(shè)施:廣州菲音的教學(xué)環(huán)境一流,配備了先進的音樂設(shè)備和樂器。我們致力于為學(xué)員創(chuàng)造一個舒適、良好的學(xué)習(xí)氛圍,使他們在愉悅的環(huán)境中更好地學(xué)習(xí)音樂。

廣州菲音的優(yōu)勢

廣州菲音在音樂教育行業(yè)有著諸多獨特的優(yōu)勢,以下是我們的部分優(yōu)勢:

  • 個性化教學(xué):廣州菲音注重學(xué)員的個性化需求和差異化發(fā)展,我們的老師會根據(jù)學(xué)員的音樂目標和特長制定個性化的教學(xué)計劃,確保每位學(xué)員都能夠獲得有效的學(xué)習(xí)成果。
  • 豐富的演出機會:廣州菲音為有演奏愿望的學(xué)員提供了豐富的演出機會。我們定期組織學(xué)員音樂會和演出活動,讓學(xué)員能夠展示自己的才華,增強舞臺表演能力。
  • 系統(tǒng)化教學(xué)體系:廣州菲音擁有嚴謹?shù)慕虒W(xué)體系和教材體系,幫助學(xué)員建立起系統(tǒng)、全面的音樂知識結(jié)構(gòu)和技能體系。
  • 優(yōu)質(zhì)服務(wù):廣州菲音注重服務(wù)質(zhì)量,我們的工作人員和老師都以誠信、耐心的態(tài)度對待每一位學(xué)員,為他們提供幫助和支持。
  • 良好的口碑:廣州菲音憑借多年來積累的口碑和良好的教學(xué)效果,贏得了學(xué)員和家長的一致好評。我們始終堅持以學(xué)員為中心,努力為他們提供最好的教育體驗。

廣州菲音給學(xué)員帶來的實際效果

廣州菲音的教學(xué)方法和專業(yè)團隊的輔導(dǎo)下,學(xué)員們在音樂技能和音樂理論方面都取得了顯著的進步。很多學(xué)員在參加我們的培訓(xùn)后,成功參加了音樂考級或音樂比賽,并取得了優(yōu)異的成績。

更重要的是,廣州菲音的培訓(xùn)不僅培養(yǎng)了學(xué)員的音樂技能,還培養(yǎng)了他們對音樂的熱愛和藝術(shù)追求。學(xué)員們通過廣州菲音的培訓(xùn),更深入地理解了音樂的內(nèi)涵,提升了自己的音樂修養(yǎng),拓展了自己的藝術(shù)視野。

廣州菲音以其卓越的教學(xué)水平和卓越的教育成果,贏得了廣大學(xué)員的信任和推崇。無論您是孩子還是成人,只要您對音樂有熱愛和追求,廣州菲音都將是您實現(xiàn)音樂夢想的理想選擇。

四、早教產(chǎn)品抖音運營面試題

在今天的競爭激烈的市場中,早教產(chǎn)品行業(yè)成為了眾多家長關(guān)注的焦點。作為一名抖音運營人員,了解早教產(chǎn)品抖音運營面試題是非常重要的。本文將為大家介紹一些與早教產(chǎn)品抖音運營相關(guān)的面試題,供大家參考和準備。

問題一:請簡要介紹一下你對早教產(chǎn)品抖音運營的了解。

回答這個問題時,你可以從以下幾個方面進行回答:

  1. 抖音是什么,它在早教產(chǎn)品行業(yè)中的地位和作用。
  2. 早教產(chǎn)品抖音運營的具體內(nèi)容和方法。
  3. 抖音用戶群體特點,如何根據(jù)用戶需求進行運營。
  4. 早教產(chǎn)品抖音運營的目標,如何實現(xiàn)并評估。

問題二:請分享一些你過去成功的抖音運營案例。

這個問題將考察你的實際操作經(jīng)驗和抖音運營策略。在回答時,可以選擇一個成功的案例進行詳細講解,包括以下內(nèi)容:

  • 選擇的早教產(chǎn)品和目標用戶群體。
  • 通過哪些運營手段和策略實現(xiàn)了用戶增長和用戶參與度的提升。
  • 達到的效果和收益。

問題三:如何根據(jù)用戶的需求制定早教產(chǎn)品抖音內(nèi)容策略?

這個問題考察的是你的用戶洞察和市場分析能力。你可以回答以下幾點:

  • 調(diào)查研究用戶的年齡、興趣愛好、用抖音的目的等基本信息。
  • 根據(jù)用戶需求和熱點話題,制定符合他們關(guān)注點的內(nèi)容。
  • 采用不同形式的內(nèi)容,如教育文章、互動活動、產(chǎn)品介紹等,以滿足不同用戶需求。
  • 定期分析用戶反饋和數(shù)據(jù),不斷優(yōu)化內(nèi)容策略。

問題四:如何提高早教產(chǎn)品抖音賬號的粉絲數(shù)量和活躍度?

這個問題考察的是你的用戶運營能力和增長策略。你可以回答以下幾點:

  • 制定用戶增長目標,設(shè)定合理的指標。
  • 運用抖音的特點,提供有價值和有趣的內(nèi)容,吸引用戶關(guān)注和參與。
  • 通過合作和跨平臺推廣,擴大品牌影響力。
  • 定期分析用戶行為和數(shù)據(jù),根據(jù)數(shù)據(jù)優(yōu)化運營策略。

問題五:你認為早教產(chǎn)品抖音運營面臨的主要挑戰(zhàn)是什么?如何應(yīng)對?

這個問題考察的是你的分析和解決問題的能力。你可以回答以下幾點:

  • 市場競爭激烈,如何在眾多早教產(chǎn)品中脫穎而出。
  • 用戶需求多樣化,如何根據(jù)不同用戶需求和特點進行運營。
  • 如何應(yīng)對平臺算法的變化和調(diào)整,保持賬號的穩(wěn)定增長。
  • 定期關(guān)注競爭對手和行業(yè)趨勢,及時調(diào)整運營策略。

以上就是一些與早教產(chǎn)品抖音運營相關(guān)的面試題。希望通過這些問題的了解和準備,能夠更好地應(yīng)對早教產(chǎn)品抖音運營面試,展現(xiàn)出自己的實際操作經(jīng)驗和專業(yè)能力。

五、比音菲勒什么檔次?

比音勒芬是高檔次品牌,著名高爾夫服飾品牌它擅長吸納當(dāng)前服裝界的潮流元素,提倡以高品位的時尚、生活舒適便利為依據(jù),將各種輕柔的紗線、纖薄的素材及高科技功能新材巧妙地揉合在一起,創(chuàng)造出一系列經(jīng)典服裝。

適合18歲以上的人群。比音勒芬服飾股份有限公司成立于2003年,是一家集設(shè)計、產(chǎn)品開發(fā)及營銷于一體的國內(nèi)領(lǐng)先的高爾夫服飾品牌企業(yè)。公司于2007年在廣州建立總部基地,辦公面積達15000平方米。專注設(shè)計、研發(fā)和銷售男、女高爾夫服飾。

六、比音勒菲什么檔次?

比音勒芬是高端檔次。比音勒芬,有名高爾夫服飾知名品牌它的優(yōu)點便是吸收目前時裝界的時尚潮流要素,大力提倡以高品質(zhì)的時尚潮流、在日常生活舒服簡便為主要,將很各種柔和的棉紗、輕薄的材料及新科技功能新材精妙地融為一體,打造出多種傳統(tǒng)服裝款式。

七、王菲抖音號多少?

王菲沒有開播抖音,她直播的音樂會是在抖音官方直播的!

八、抖音女主播菲兒陽了嗎?

陽了。因為身體原因停播了。菲兒是YY上的才藝主播,她也是主播中的直播勞模,不過為了能更好地給網(wǎng)友們直播,她宣布停播。因為菲兒想要休息一下嗓子,只有休息好了才會拿出狀態(tài)直播。

九、音菲梵女裝是幾線品牌?

音菲梵女裝是廣東廣州市著名的女裝品牌,屬于禾煜國際品牌管理(廣州)有限公司旗下經(jīng)營的三線時尚女裝品牌。該品牌以優(yōu)雅、經(jīng)典的花卉及藝術(shù)圖形為設(shè)計理念,巧妙地將中西方文化有機融合,形成了獨特的設(shè)計風(fēng)格。音菲梵女裝主要針對18-35歲的市場,初期投資約為5萬元人民幣。

十、mahout面試題?

之前看了Mahout官方示例 20news 的調(diào)用實現(xiàn);于是想根據(jù)示例的流程實現(xiàn)其他例子。網(wǎng)上看到了一個關(guān)于天氣適不適合打羽毛球的例子。

訓(xùn)練數(shù)據(jù):

Day Outlook Temperature Humidity Wind PlayTennis

D1 Sunny Hot High Weak No

D2 Sunny Hot High Strong No

D3 Overcast Hot High Weak Yes

D4 Rain Mild High Weak Yes

D5 Rain Cool Normal Weak Yes

D6 Rain Cool Normal Strong No

D7 Overcast Cool Normal Strong Yes

D8 Sunny Mild High Weak No

D9 Sunny Cool Normal Weak Yes

D10 Rain Mild Normal Weak Yes

D11 Sunny Mild Normal Strong Yes

D12 Overcast Mild High Strong Yes

D13 Overcast Hot Normal Weak Yes

D14 Rain Mild High Strong No

檢測數(shù)據(jù):

sunny,hot,high,weak

結(jié)果:

Yes=》 0.007039

No=》 0.027418

于是使用Java代碼調(diào)用Mahout的工具類實現(xiàn)分類。

基本思想:

1. 構(gòu)造分類數(shù)據(jù)。

2. 使用Mahout工具類進行訓(xùn)練,得到訓(xùn)練模型。

3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

4. 分類器對vector數(shù)據(jù)進行分類。

接下來貼下我的代碼實現(xiàn)=》

1. 構(gòu)造分類數(shù)據(jù):

在hdfs主要創(chuàng)建一個文件夾路徑 /zhoujainfeng/playtennis/input 并將分類文件夾 no 和 yes 的數(shù)據(jù)傳到hdfs上面。

數(shù)據(jù)文件格式,如D1文件內(nèi)容: Sunny Hot High Weak

2. 使用Mahout工具類進行訓(xùn)練,得到訓(xùn)練模型。

3。將要檢測數(shù)據(jù)轉(zhuǎn)換成vector數(shù)據(jù)。

4. 分類器對vector數(shù)據(jù)進行分類。

這三步,代碼我就一次全貼出來;主要是兩個類 PlayTennis1 和 BayesCheckData = =》

package myTesting.bayes;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.util.ToolRunner;

import org.apache.mahout.classifier.naivebayes.training.TrainNaiveBayesJob;

import org.apache.mahout.text.SequenceFilesFromDirectory;

import org.apache.mahout.vectorizer.SparseVectorsFromSequenceFiles;

public class PlayTennis1 {

private static final String WORK_DIR = "hdfs://192.168.9.72:9000/zhoujianfeng/playtennis";

/*

* 測試代碼

*/

public static void main(String[] args) {

//將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成 vector數(shù)據(jù)

makeTrainVector();

//產(chǎn)生訓(xùn)練模型

makeModel(false);

//測試檢測數(shù)據(jù)

BayesCheckData.printResult();

}

public static void makeCheckVector(){

//將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"testinput";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失敗!");

System.exit(1);

}

//將序列化文件轉(zhuǎn)換成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-test-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-test-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件轉(zhuǎn)換成向量失?。?#34;);

System.out.println(2);

}

}

public static void makeTrainVector(){

//將測試數(shù)據(jù)轉(zhuǎn)換成序列化文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"input";

String output = WORK_DIR+Path.SEPARATOR+"tennis-seq";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SequenceFilesFromDirectory sffd = new SequenceFilesFromDirectory();

String[] params = new String[]{"-i",input,"-o",output,"-ow"};

ToolRunner.run(sffd, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("文件序列化失??!");

System.exit(1);

}

//將序列化文件轉(zhuǎn)換成向量文件

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-seq";

String output = WORK_DIR+Path.SEPARATOR+"tennis-vectors";

Path in = new Path(input);

Path out = new Path(output);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

SparseVectorsFromSequenceFiles svfsf = new SparseVectorsFromSequenceFiles();

String[] params = new String[]{"-i",input,"-o",output,"-lnorm","-nv","-wt","tfidf"};

ToolRunner.run(svfsf, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("序列化文件轉(zhuǎn)換成向量失??!");

System.out.println(2);

}

}

public static void makeModel(boolean completelyNB){

try {

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String input = WORK_DIR+Path.SEPARATOR+"tennis-vectors"+Path.SEPARATOR+"tfidf-vectors";

String model = WORK_DIR+Path.SEPARATOR+"model";

String labelindex = WORK_DIR+Path.SEPARATOR+"labelindex";

Path in = new Path(input);

Path out = new Path(model);

Path label = new Path(labelindex);

FileSystem fs = FileSystem.get(conf);

if(fs.exists(in)){

if(fs.exists(out)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(out, true);

}

if(fs.exists(label)){

//boolean參數(shù)是,是否遞歸刪除的意思

fs.delete(label, true);

}

TrainNaiveBayesJob tnbj = new TrainNaiveBayesJob();

String[] params =null;

if(completelyNB){

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow","-c"};

}else{

params = new String[]{"-i",input,"-el","-o",model,"-li",labelindex,"-ow"};

}

ToolRunner.run(tnbj, params);

}

} catch (Exception e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("生成訓(xùn)練模型失??!");

System.exit(3);

}

}

}

package myTesting.bayes;

import java.io.IOException;

import java.util.HashMap;

import java.util.Map;

import org.apache.commons.lang.StringUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.PathFilter;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.mahout.classifier.naivebayes.BayesUtils;

import org.apache.mahout.classifier.naivebayes.NaiveBayesModel;

import org.apache.mahout.classifier.naivebayes.StandardNaiveBayesClassifier;

import org.apache.mahout.common.Pair;

import org.apache.mahout.common.iterator.sequencefile.PathType;

import org.apache.mahout.common.iterator.sequencefile.SequenceFileDirIterable;

import org.apache.mahout.math.RandomAccessSparseVector;

import org.apache.mahout.math.Vector;

import org.apache.mahout.math.Vector.Element;

import org.apache.mahout.vectorizer.TFIDF;

import com.google.common.collect.ConcurrentHashMultiset;

import com.google.common.collect.Multiset;

public class BayesCheckData {

private static StandardNaiveBayesClassifier classifier;

private static Map<String, Integer> dictionary;

private static Map<Integer, Long> documentFrequency;

private static Map<Integer, String> labelIndex;

public void init(Configuration conf){

try {

String modelPath = "/zhoujianfeng/playtennis/model";

String dictionaryPath = "/zhoujianfeng/playtennis/tennis-vectors/dictionary.file-0";

String documentFrequencyPath = "/zhoujianfeng/playtennis/tennis-vectors/df-count";

String labelIndexPath = "/zhoujianfeng/playtennis/labelindex";

dictionary = readDictionnary(conf, new Path(dictionaryPath));

documentFrequency = readDocumentFrequency(conf, new Path(documentFrequencyPath));

labelIndex = BayesUtils.readLabelIndex(conf, new Path(labelIndexPath));

NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), conf);

classifier = new StandardNaiveBayesClassifier(model);

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

System.out.println("檢測數(shù)據(jù)構(gòu)造成vectors初始化時報錯。。。。");

System.exit(4);

}

}

/**

* 加載字典文件,Key: TermValue; Value:TermID

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<String, Integer> readDictionnary(Configuration conf, Path dictionnaryDir) {

Map<String, Integer> dictionnary = new HashMap<String, Integer>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

String name = path.getName();

return name.startsWith("dictionary.file");

}

};

for (Pair<Text, IntWritable> pair : new SequenceFileDirIterable<Text, IntWritable>(dictionnaryDir, PathType.LIST, filter, conf)) {

dictionnary.put(pair.getFirst().toString(), pair.getSecond().get());

}

return dictionnary;

}

/**

* 加載df-count目錄下TermDoc頻率文件,Key: TermID; Value:DocFreq

* @param conf

* @param dictionnaryDir

* @return

*/

private static Map<Integer, Long> readDocumentFrequency(Configuration conf, Path documentFrequencyDir) {

Map<Integer, Long> documentFrequency = new HashMap<Integer, Long>();

PathFilter filter = new PathFilter() {

@Override

public boolean accept(Path path) {

return path.getName().startsWith("part-r");

}

};

for (Pair<IntWritable, LongWritable> pair : new SequenceFileDirIterable<IntWritable, LongWritable>(documentFrequencyDir, PathType.LIST, filter, conf)) {

documentFrequency.put(pair.getFirst().get(), pair.getSecond().get());

}

return documentFrequency;

}

public static String getCheckResult(){

Configuration conf = new Configuration();

conf.addResource(new Path("/usr/local/hadoop/conf/core-site.xml"));

String classify = "NaN";

BayesCheckData cdv = new BayesCheckData();

cdv.init(conf);

System.out.println("init done...............");

Vector vector = new RandomAccessSparseVector(10000);

TFIDF tfidf = new TFIDF();

//sunny,hot,high,weak

Multiset<String> words = ConcurrentHashMultiset.create();

words.add("sunny",1);

words.add("hot",1);

words.add("high",1);

words.add("weak",1);

int documentCount = documentFrequency.get(-1).intValue(); // key=-1時表示總文檔數(shù)

for (Multiset.Entry<String> entry : words.entrySet()) {

String word = entry.getElement();

int count = entry.getCount();

Integer wordId = dictionary.get(word); // 需要從dictionary.file-0文件(tf-vector)下得到wordID,

if (StringUtils.isEmpty(wordId.toString())){

continue;

}

if (documentFrequency.get(wordId) == null){

continue;

}

Long freq = documentFrequency.get(wordId);

double tfIdfValue = tfidf.calculate(count, freq.intValue(), 1, documentCount);

vector.setQuick(wordId, tfIdfValue);

}

// 利用貝葉斯算法開始分類,并提取得分最好的分類label

Vector resultVector = classifier.classifyFull(vector);

double bestScore = -Double.MAX_VALUE;

int bestCategoryId = -1;

for(Element element: resultVector.all()) {

int categoryId = element.index();

double score = element.get();

System.out.println("categoryId:"+categoryId+" score:"+score);

if (score > bestScore) {

bestScore = score;

bestCategoryId = categoryId;

}

}

classify = labelIndex.get(bestCategoryId)+"(categoryId="+bestCategoryId+")";

return classify;

}

public static void printResult(){

System.out.println("檢測所屬類別是:"+getCheckResult());

}

}

相關(guān)資訊
熱門頻道

Copyright © 2024 招聘街 滇ICP備2024020316號-38