`
womendu
  • 浏览: 1513706 次
  • 性别: Icon_minigender_2
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

Good News -- 投稿到《机器人》的论文也被录用了

阅读更多

还没从昨天获知第一篇会议论文被 ICIC 录用的兴奋中冷静下来,今天下午又收到《机器人》编辑部的邮件通知,有关蚁群算法的第2篇论文《基于修正蚁群算法的多机器人气味源定位策略研究》也被录用啦。呵呵,4月份不分昼夜的啃 Eng 文献、在 Matlab 代码中神游的日子,今天陆续收获硕果。对蚁群算法与机器人气味源定位的研究持续了一整个4月,从蚂蚁路径选择的概率方式(最大转移概率、赌选择)、启发函数和信息素的定义、气味源定位策略等几个方面进行了系列的仿真研究,得出了2中2英共4篇论文。一篇投ICIC,一篇投《机器人》,一篇投《自动化学报》,还有一篇投到10月底在北方交通大学举行的ICSP 2008。期待后面投稿的两篇文章也能顺利录用啦。

从目前已录用的两篇文章反馈回的Review来看,感觉这个课题还有很多的研究空间,有待进一步探索。ICIC 和 《机器人》的Reviewer都很负责,既有从论文的立意、仿真方法等学术层面提出了改进意见,也有详细提出我论文中参数表述、版面编排等方面的硬伤,提醒了我要阅读更多的文献资料,多动笔、多思考,用最精炼简洁的文字、表达出中心的研究思想和成果。路漫漫其修远兮,我还要加倍上下求索啊!

研究将蚁群算法应用到机器人气味源定位这一课题,首先非常感谢北航的陈伟海老师。目前考博就是准备报他的博士。在3月份1次Email中陈老师发给我有关 今年12月在越南举行的ICARCV'08 的资料,我收到后就认真阅读这些资料、并浏览会议官方网站,在得知会议截稿日期延迟至4月15日后,我便集中精力和时间尝试写一篇论文投到这个会议上。

从会议的征稿主题中,我选择了自己比较感兴趣、并且和目前专业对口的“Mobile Sensor Network”作为切入点,开始搜集、整理、总结相关资料,探索论文的思路。

在研一的时候,我就开始接触蚁群算法并自学了其基本原理;同时在选修《模式识别》课程的课堂论文中,选择了做移动机器人气味源定位方法研究的综述,对气味源定位方法的研究背景、现状和前景都有了基本的了解。

所以,在了解了 ICARCV’08 的会议主题后,我很快就想到了将蚁群算法应用到移动机器人气味源定位方法中。论文的基本思路在4月10日之前就基本形成了,然后开始编写算法程序和仿真实验,在15日当天终于基本实现了所构思的算法。虽然已经不可能在截稿之前完成论文了,我还是坚持进行程序的调试和优化,并着手起草论文。20日左右完成了10页长的中文论文初稿,然后在硕导骆老师的指导下对论文进行精简,并且在此基础上把论文作进一步简化,完成了论文的英文稿。

虽然赶不及在 ICARCV 的截稿期之前完成论文并提交,我并没有放弃,反而随着研究的深入,有了更多新 Idea,对算法不断改进,每作出一次大的改进,就注意总结经验、分析仿真结果的有效信息,然后整理出相应的论文。由此就有了最终的4篇论文,现在回想起来,觉得自己有点急功近利了,算法有点改进就写一篇论文,就像在拼文章数量一样。其实这样不利于自己长期的科研,以后要谨记,论文在精不在多,要沉得住气,拿出一个充分验证的成果,写出文字精炼、表述清晰的高质量论文,再向高水平的学术期刊投稿,这样才更有助于自己的学术成长、更能让自己有成就感和充实感。

可以稍减自己不安的是,前两篇论文都被录用了,而且不出意外的话,应该都能被EI收录。兴奋总会是有的,但更应该总结经验,静下心来作深入的研究。整个4月以来全心地投入到算法的探索、设计、实现和修改、优化,让我获益颇深,目前对蚁群算法在机器人方面的应用有一些新的想法,在接下来的几个月里,我计划对蚁群算法、模块化机器人技术、模式识别和小波变换等比较感兴趣的领域作进一步研究,探寻它们之间关联应用的方法和技术。

心怀梦想,踏实前行;努力求索,成败随缘 ……

P.S. 论文是4月23日投稿的,6月6日收到录用通知单,可以说速度是比较快的。对论文的撰写和怎样提高论文的审稿速度,和大家分享几点体会:
(1)首先,论文所述的研究应该有创新性,这里感觉学科的交叉结合比较容易实现创新,我的论文是蚁群算法和机器人气味源定位的结合,味源定位从1980年后起步,蚁群算法则起于1990后,但两者的结合还没有多少研究,从我自身有限的文献阅读所了解的,国内外只有不到10篇的相关文献;
(2)研究成果应该是自身实干所得,从前人的工作中得到 Idea,然后身体力行把 Idea 变为实际的、可实现的成果;
(3)论文的引言要简明扼要地指出领域内的研究历史和现状,点出有待改进和发展的方向,同时注意要保证有足够的文献引用;
(4)算法原理部分要减少共性理论和他人工作的内容,重点讲自己的工作和创新点;
(5)实验和讨论部分要有足够的数据和图表,表明你工作的成效。但是图表不能太多,要重点突出,并且讨论时,在文字表述上最好按图表分段,说明图表的意义,另外不要忽略了介绍实验环境、仿真参数、仿真平台等,使得他人能够充分重现你的实验过程。
(6)结论部分最好结合实验讨论部分的内容,分点指出工作成果和结论,最后简要提出成果展望或者后续研究方向。

分享到:
评论

相关推荐

    GoogleNews-vectors-negative300.bin

    英文的词向量 GoogleNews-vectors-negative300.bin网盘 GoogleNews-vectors-negative300.bin网盘

    GoogleNews-vectors-negative300网盘下载地址.txt

    GoogleNews-vectors-negative300.bin.gz百度网盘下载地址 GoogleNews-vectors-negative300.bin.gz百度网盘下载地址

    wiki-news-300d-1M.vec.zip

    《深入理解Facebook fastText模型与wiki-news-300d-1M.vec向量压缩包》 在自然语言处理(NLP)领域,词向量是基石之一,它能够将词汇转换为数值形式,便于计算机理解和操作。Facebook的fastText模型就是其中的一种...

    20news-bydate.tar.gz解压后的所有数据汇总

    《20news-bydate.tar.gz解压后的所有数据汇总——深度探索文本分类与机器学习》 在信息技术领域,数据是推动研究和应用发展的关键。20news-bydate数据集是机器学习领域中一个广泛使用的经典文本分类数据集,主要...

    码云上的文本分析-Listed-company-news-crawl-and-text-analysis-master.zip

    码云上的文本分析-Listed-company-news-crawl-and-text-analysis-master.zip

    GoogleNews-vectors-negative300.bin.gz

    GoogleNews-vectors-negative300.bin.gz是word2vec提前训练好的model。

    word2vec-google-news-300.zip.003

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    word2vec-google-news-300.zip.002

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    word2vec-google-news-300.zip.006

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    word2vec-google-news-300.zip.010

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    GoogleNews-vectors-negative300.bin 压缩包3/3

    KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin', binary=True)

    word2vec-google-news-300.zip.007

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    20 Newsgroups数据集(包括20news-19997、20news-bydate和20news-18828三个数据集)

    20 Newsgroups数据集是大约20,000个新闻组文档的集合,在20个不同的新闻组中几乎均匀划分。20 Newsgroups数据集已经成为机器学习技术相关实验的常用数据集,例如文本分类和文本聚类实验。

    GoogleNews-vectors-negative300网盘地址.txt

    这是网络上的关于GoogleNews-vectors-negative300.bin.gz文件的百度网盘地址

    word2vec-google-news-300.zip.009

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

    20news-bydate_py3.pkz

    Scikit-Learn机器学习之监督学习模型案例集-新闻/邮件文本内容分类(朴素贝叶斯算法模型)素材

    20news-bydate

    标题“20news-bydate”指的是一个著名的文本分类数据集,它被广泛用于自然语言处理(NLP)领域的研究和教学。这个数据集包含了20个不同新闻组的帖子,这些新闻组涵盖了从汽车到科学,从宗教到运动等各种主题。它的...

    news-commentary-v14.en-zh.tsv

    实战数据 有缺失值,乱码等 数据待清洗处理

    word2vec-google-news-300.zip.008

    Word2Vec 模型word2vec-google-news-300。在 Google News 数据集上训练完成的 Word2Vec 模型,覆盖了大约 300 万的词汇和短语。该模型是利用了整个 Google News 大约 1000 亿个词的语料训练而成!由于文件太大,将...

Global site tag (gtag.js) - Google Analytics