- 浏览: 286394 次
- 性别:
- 来自: 苏州
-
文章分类
最新评论
-
tyyh08t1003:
< controller locale="tr ...
Session对象创建和控制 -
rightzheng:
right_zheng@yahoo.com.cn求代码
用HtmlParser 写个简单的 news爬虫 -
liujiaoshui:
而简单赋值运算和复合赋值运算的最大差别就在于:复合赋值运算符会 ...
简单赋值与复合赋值区别 -
yinchunjian:
<script>
function f1(){
...
javaScript闭包 -
明天的昨天:
zyh_1986 写道function f1(){ n=99 ...
javaScript闭包
有一段时间没写博客了,这几天回到学校我同学要赶着交毕业设计,让我帮他写个爬虫,专门抓搜狐的新闻,我用过爬虫,但是从来没有自己写过爬虫,于是Google了一下,找到了一篇不错的文章:使用 HttpClient 和 HtmlParser 实现简易爬虫 . 参考里面的代码,自己写了个简易的搜狐新闻爬虫。
爬虫的主要工做就是到搜狐的新闻首页上去抓取新闻,然后将新闻添加到数据库中。
代码其实很简单的:
LinkParser.java
import com.sohu.SohuNews;
import java.util.HashSet;
import java.util.Set;
import org.htmlparser.Node;
import org.htmlparser.NodeFilter;
import org.htmlparser.Parser;
import org.htmlparser.filters.NodeClassFilter;
import org.htmlparser.filters.OrFilter;
import org.htmlparser.tags.LinkTag;
import org.htmlparser.util.NodeList;
import org.htmlparser.util.ParserException;
/**
* 这个类是用来搜集新闻链接地址的。将符合正则表达式的URL添加到URL数组中。
* @author guanminglin
*/
public class LinkParser {
// 获取一个网站上的链接,filter 用来过滤链接
public static Set<String> extracLinks(String url, LinkFilter filter) {
Set<String> links = new HashSet<String>();
try {
Parser parser = new Parser(url);
parser.setEncoding("gb2312");
// 过滤 <frame >标签的 filter,用来提取 frame 标签里的 src 属性所表示的链接
NodeFilter frameFilter = new NodeFilter() {
public boolean accept(Node node) {
if (node.getText().startsWith("frame src=")) {
return true;
} else {
return false;
}
}
};
// OrFilter 来设置过滤 <a> 标签,和 <frame> 标签
OrFilter linkFilter = new OrFilter(new NodeClassFilter(
LinkTag.class), frameFilter);
// 得到所有经过过滤的标签
NodeList list = parser.extractAllNodesThatMatch(linkFilter);
for (int i = 0; i < list.size(); i++) {
Node tag = list.elementAt(i);
if (tag instanceof LinkTag)// <a> 标签
{
LinkTag link = (LinkTag) tag;
String linkUrl = link.getLink();// url
if (filter.accept(linkUrl)) {
links.add(linkUrl);
}
} else// <frame> 标签
{
// 提取 frame 里 src 属性的链接如 <frame src="test.html"/>
String frame = tag.getText();
int start = frame.indexOf("src=");
frame = frame.substring(start);
int end = frame.indexOf(" ");
if (end == -1) {
end = frame.indexOf(">");
}
String frameUrl = frame.substring(5, end - 1);
if (filter.accept(frameUrl)) {
links.add(frameUrl);
}
}
}
} catch (ParserException e) {
e.printStackTrace();
}
return links;
}
public void doParser(String url) {
SohuNews news = new SohuNews();
Set<String> links = LinkParser.extracLinks(
url, new LinkFilter() {
//提取以 http://news.sohu.com 开头的链接
public boolean accept(String url) {
if (url.matches("http://news.sohu.com/[\\d]+/n[\\d]+.shtml")) {
return true;
} else {
return false;
}
}
});
//循环迭代出连接,然后提取该连接中的新闻。
for (String link : links) {
System.out.println(link);
news.parser(link); //解析连接
}
}
//测试主页新闻,可以得到主页上所有符合要求的网页地址,并进行访问。
public static void main(String[] args) {
String url = "http://news.sohu.com/";
LinkParser parser = new LinkParser();
parser.doParser(url);
}
}
上面这段带码比较简单,就是用来提取 http://news.sohu.com 上面的新闻连接 ,格式类似这样:http://news.sohu.com/20090518/n264012864.shtml
所以写了一小段的正则表达式来匹配他:
Set<String> links = LinkParser.extracLinks(
url, new LinkFilter() {
//提取以 http://news.sohu.com 开头的链接
public boolean accept(String url) {
if (url.matches("http://news.sohu.com/[\\d]+/n[\\d]+.shtml")) {
return true;
} else {
return false;
}
}
});
还有一个核心类就是用来解析搜狐新闻的类,该类用于重网页中提取出新闻,然后将新闻添加到数据库中。代码中还用到了一个NewsBean
这段代码就不贴出来了,很简单的POJO 代码。核心代码都在下面。
SohuNews.java
import com.sohu.bean.NewsBean;
import com.sohu.db.ConnectionManager;
import java.util.ArrayList;
import java.util.List;
import java.util.logging.Level;
import java.util.logging.Logger;
import org.htmlparser.NodeFilter;
import org.htmlparser.Parser;
import org.htmlparser.beans.StringBean;
import org.htmlparser.filters.AndFilter;
import org.htmlparser.filters.HasAttributeFilter;
import org.htmlparser.filters.TagNameFilter;
import org.htmlparser.tags.Div;
import org.htmlparser.tags.HeadingTag;
import org.htmlparser.tags.Span;
import org.htmlparser.util.NodeList;
import org.htmlparser.util.ParserException;
import java.sql.PreparedStatement;
import java.sql.SQLException;
/**
* 用于对搜狐网站上的新闻进行抓取
* @author guanminglin <guanminglin@gmail.com>
*/
public class SohuNews {
private Parser parser = null; //用于分析网页的分析器。
private List newsList = new ArrayList(); //暂存新闻的List;
private NewsBean bean = new NewsBean();
private ConnectionManager manager = null; //数据库连接管理器。
private PreparedStatement pstmt = null;
public SohuNews() {
}
/**
* 获得一条完整的新闻。
* @param newsBean
* @return
*/
public List getNewsList(final NewsBean newsBean) {
List list = new ArrayList();
String newstitle = newsBean.getNewsTitle();
String newsauthor = newsBean.getNewsAuthor();
String newscontent = newsBean.getNewsContent();
String newsdate = newsBean.getNewsDate();
list.add(newstitle);
list.add(newsauthor);
list.add(newscontent);
list.add(newsdate);
return list;
}
/**
* 设置新闻对象,让新闻对象里有新闻数据
* @param newsTitle 新闻标题
* @param newsauthor 新闻作者
* @param newsContent 新闻内容
* @param newsDate 新闻日期
* @param url 新闻链接
*/
public void setNews(String newsTitle, String newsauthor, String newsContent, String newsDate, String url) {
bean.setNewsTitle(newsTitle);
bean.setNewsAuthor(newsauthor);
bean.setNewsContent(newsContent);
bean.setNewsDate(newsDate);
bean.setNewsURL(url);
}
/**
* 该方法用于将新闻添加到数据库中。
*/
protected void newsToDataBase() {
//建立一个线程用来执行将新闻插入到数据库中。
Thread thread = new Thread(new Runnable() {
public void run() {
boolean sucess = saveToDB(bean);
if (sucess != false) {
System.out.println("插入数据失败");
}
}
});
thread.start();
}
/**
* 将新闻插入到数据库中
* @param bean
* @return
*/
public boolean saveToDB(NewsBean bean) {
boolean flag = true;
String sql = "insert into news(newstitle,newsauthor,newscontent,newsurl,newsdate) values(?,?,?,?,?)";
manager = new ConnectionManager();
String titleLength = bean.getNewsTitle();
if (titleLength.length() > 60) { //标题太长的新闻不要。
return flag;
}
try {
pstmt = manager.getConnection().prepareStatement(sql);
pstmt.setString(1, bean.getNewsTitle());
pstmt.setString(2, bean.getNewsAuthor());
pstmt.setString(3, bean.getNewsContent());
pstmt.setString(4, bean.getNewsURL());
pstmt.setString(5, bean.getNewsDate());
flag = pstmt.execute();
} catch (SQLException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
} finally {
try {
pstmt.close();
manager.close();
} catch (SQLException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
}
return flag;
}
/**
* 获得新闻的标题
* @param titleFilter
* @param parser
* @return
*/
private String getTitle(NodeFilter titleFilter, Parser parser) {
String titleName = "";
try {
NodeList titleNodeList = (NodeList) parser.parse(titleFilter);
for (int i = 0; i < titleNodeList.size(); i++) {
HeadingTag title = (HeadingTag) titleNodeList.elementAt(i);
titleName = title.getStringText();
}
} catch (ParserException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
return titleName;
}
/**
* 获得新闻的责任编辑,也就是作者。
* @param newsauthorFilter
* @param parser
* @return
*/
private String getNewsAuthor(NodeFilter newsauthorFilter, Parser parser) {
String newsAuthor = "";
try {
NodeList authorList = (NodeList) parser.parse(newsauthorFilter);
for (int i = 0; i < authorList.size(); i++) {
Div authorSpan = (Div) authorList.elementAt(i);
newsAuthor = authorSpan.getStringText();
}
} catch (ParserException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
return newsAuthor;
}
/*
* 获得新闻的日期
*/
private String getNewsDate(NodeFilter dateFilter, Parser parser) {
String newsDate = null;
try {
NodeList dateList = (NodeList) parser.parse(dateFilter);
for (int i = 0; i < dateList.size(); i++) {
Span dateTag = (Span) dateList.elementAt(i);
newsDate = dateTag.getStringText();
}
} catch (ParserException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
return newsDate;
}
/**
* 获取新闻的内容
* @param newsContentFilter
* @param parser
* @return content 新闻内容
*/
private String getNewsContent(NodeFilter newsContentFilter, Parser parser) {
String content = null;
StringBuilder builder = new StringBuilder();
try {
NodeList newsContentList = (NodeList) parser.parse(newsContentFilter);
for (int i = 0; i < newsContentList.size(); i++) {
Div newsContenTag = (Div) newsContentList.elementAt(i);
builder = builder.append(newsContenTag.getStringText());
}
content = builder.toString(); //转换为String 类型。
if (content != null) {
parser.reset();
parser = Parser.createParser(content, "gb2312");
StringBean sb = new StringBean();
sb.setCollapse(true);
parser.visitAllNodesWith(sb);
content = sb.getStrings();
// String s = "\";} else{ document.getElementById('TurnAD444').innerHTML = \"\";} } showTurnAD444(intTurnAD444); }catch(e){}";
content = content.replaceAll("\\\".*[a-z].*\\}", "");
content = content.replace("[我来说两句]", "");
} else {
System.out.println("没有得到新闻内容!");
}
} catch (ParserException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
return content;
}
/**
* 根据提供的URL,获取此URL对应网页所有的纯文本信息,次方法得到的信息不是很纯,
*常常会得到我们不想要的数据。不过如果你只是想得到某个URL 里的所有纯文本信息,该方法还是很好用的。
* @param url 提供的URL链接
* @return RL对应网页的纯文本信息
* @throws ParserException
* @deprecated 该方法被 getNewsContent()替代。
*/
@Deprecated
public String getText(String url) throws ParserException {
StringBean sb = new StringBean();
//设置不需要得到页面所包含的链接信息
sb.setLinks(false);
//设置将不间断空格由正规空格所替代
sb.setReplaceNonBreakingSpaces(true);
//设置将一序列空格由一个单一空格所代替
sb.setCollapse(true);
//传入要解析的URL
sb.setURL(url);
//返回解析后的网页纯文本信息
return sb.getStrings();
}
/**
* 对新闻URL进行解析提取新闻,同时将新闻插入到数据库中。
* @param content
*/
public void parser(String url) {
try {
parser = new Parser(url);
NodeFilter titleFilter = new TagNameFilter("h1");
NodeFilter contentFilter = new AndFilter(new TagNameFilter("div"), new HasAttributeFilter("id", "sohu_content"));
NodeFilter newsdateFilter = new AndFilter(new TagNameFilter("span"), new HasAttributeFilter("class", "c"));
NodeFilter newsauthorFilter = new AndFilter(new TagNameFilter("div"), new HasAttributeFilter("class", "editUsr"));
String newsTitle = getTitle(titleFilter, parser);
parser.reset(); //记得每次用完parser后,要重置一次parser。要不然就得不到我们想要的内容了。
String newsContent = getNewsContent(contentFilter, parser);
System.out.println(newsContent); //输出新闻的内容,查看是否符合要求
parser.reset();
String newsDate = getNewsDate(newsdateFilter, parser);
parser.reset();
String newsauthor = getNewsAuthor(newsauthorFilter, parser);
//先设置新闻对象,让新闻对象里有新闻内容。
setNews(newsTitle, newsauthor, newsContent, newsDate, url);
//将新闻添加到数据中。
this.newsToDataBase();
} catch (ParserException ex) {
Logger.getLogger(SohuNews.class.getName()).log(Level.SEVERE, null, ex);
}
}
//单个文件测试网页
public static void main(String[] args) {
SohuNews news = new SohuNews();
news.parser("http://news.sohu.com/20090518/n264012864.shtml");
}
}
存放新闻的数据库用的是MySql 建表语句如下:(其实不用数据库也可以的,在SohuNews类中注释掉那行红色的代码就可以了,所有得到的新闻都会在后台打印的。)
CREATE DATABASE IF NOT EXISTS sohunews;
USE sohunews;
--
-- Definition of table `news`
--
DROP TABLE IF EXISTS `news`;
CREATE TABLE `news` (
`newsid` int(11) NOT NULL auto_increment,
`newstitle` varchar(60) NOT NULL,
`newsauthor` varchar(20) NOT NULL,
`newscontent` text NOT NULL,
`newsurl` char(130) NOT NULL,
`newsdate` varchar(24) NOT NULL,
PRIMARY KEY (`newsid`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
以上的代码写的很粗糙,项目中使用到了HtmlParser工具包,如果需要可以到http://sourceforge.net/projects/htmlparser 网站上下载。如果有需要这个
爬虫项目源码的朋友可以留下E-mail 索取。
这篇文章只是一篇抛砖引玉的文章,希望懂爬虫的你能够给点意见,大家交流交流!!
发表评论
-
jar/war/ear包的区别
2011-03-24 14:58 1582经常在我们Java Web项目中看到jar/war/ear这几 ... -
Weblogic10 Classloading 问题
2011-03-24 14:51 1620首先要说说Weblogic的classloading ... -
weblogic 页面访问速度慢的可能原因及解决办法
2011-03-24 11:40 1836系统部署在weblogic8.1上去后,发现比在tomcat下 ... -
java常量定义
2011-03-04 11:54 1467static final String MY_STATIC_F ... -
java接口
2011-03-04 11:24 1006public interface Runnable { ... -
Tomcat显示路径下全部文件的问题
2011-01-07 16:46 1197打开你tomcat/conf/web.xml ... -
使用批处理提高数据库执行效率
2010-11-03 16:01 1221Statement stmt = conn.createSta ... -
pageContext对象的使用
2010-09-27 14:22 5234pageContext对象 pageContext ... -
java中的vo 、dto 、dao
2010-09-08 10:34 28234VO是跟数据库里表的映射,一个表对应一个VO DAO是用VO来 ... -
java final关键字
2010-08-10 15:15 1312一、final关键字 1、定义为static final 的 ... -
java中组合和继承关系
2010-08-09 15:51 16771、 组合是在一个类中引用其他类对象 Java中组合是&q ... -
java包访问权限
2010-08-09 10:15 3171包访问权限是指 方法未声明时默认为包访问权限 只有 在同一包下 ... -
window.open参数
2010-06-05 22:30 987前言:经常上网的朋友可能会到过 这样一些网站,一进入首页立刻 ... -
base64
2010-05-26 22:12 1506Base64是网络上最常见的 ... -
java远程调试
2010-05-18 12:15 2656Eclipse高级操作 远程调 ... -
java注解
2010-05-07 14:40 1258JAVA注解的总结 一 ... -
Asptctj是什么
2010-05-07 11:02 1115What is AspectJ <script>& ... -
jndi简介
2010-05-06 13:54 933JNDI是 Java 命名与目录接 ... -
将数字转换成字符串
2010-03-16 21:56 1982public static String getNumberS ... -
解析xml文件
2010-03-06 16:56 932一个解析xml文件 SAXBuilder builder = ...
相关推荐
本文详细介绍了Java爬虫的基本概念、关键技术以及常用框架,并通过一个简单的示例演示了如何使用Java实现一个网页爬虫。在实际应用中,还需要考虑反爬策略、数据存储等问题。希望本文能为读者提供一定的参考价值。
以下是一个简单的爬虫程序流程: 1. 初始化URL管理器、下载器、解析器和输出处理器。 2. 设置起始URL(如`https://baike.baidu.com/item/Python/407313`,表示百度百科的Python词条页面)。 3. 在循环中,从URL管理...
sinaNews_crawler 这是一个爬取新浪新闻的爬虫程序,本程序在后台线程中将新浪网的新闻抓取到自己的mysql数据库中,并在页面中不断刷新显示出来 注意:编程序需要htmlparser.jar来解析新闻的html代码
- 使用`crawler.py`程序,该程序利用Python的HTMLParser和SGMLParser的子类MyHTMLParser和ListName来解析网页结构。 - 爬取范围限定在清华新闻网的news子域名下,通过正则表达式提取新闻的URL、标题、正文和时间...
电气自动化仪表工程施工组织设计.doc
内容概要:本文详细介绍了基于C#和VisionPro构建的一个工业视觉通用框架。该框架主要解决了设备开发中的多个痛点,包括但不限于动态界面布局、标定算法、DLL嵌入方案、光源控制和服务端架构等方面。文中提供了大量具体的代码片段,展示了如何利用C#的强大特性和VisionPro丰富的工具链进行高效开发。例如,通过动态布局代码实现了根据相机数量自动调整界面的功能;采用两种旋转标定方法互为验证确保精度;通过接口化设计使得不同类型的光源控制器可以轻松接入;并使用WCF作为通信协议搭建了高性能的服务端架构。 适合人群:从事工业视觉开发的技术人员,尤其是那些需要频繁面对新项目启动阶段重复劳动的人群。 使用场景及目标:本框架适用于各种涉及多相机协作、复杂标定任务以及需要高度定制化的工业视觉项目。其目的是帮助开发者节省大量的前期准备工作,提高开发效率,降低错误率。 其他说明:尽管该框架已经非常成熟,但在实际应用过程中仍需要注意一些潜在的问题,如VisionPro的线程模型与C#异步特性之间的协调、不同品牌光源控制器的兼容性等。此外,作者还提到未来计划增加云端标定数据同步等功能。
2023年计算机信息系统集成项目管理工程师学习笔记.docx
matlab
part3包含2000张图片,全部6000张。 当前道路养护领域面临几个显著挑战: 1. 数据稀缺性:大多数机构缺乏高质量的标注数据集来训练可靠的缺陷检测模型 2. 类别不平衡:现有数据集往往只关注裂缝等常见缺陷,忽视修补区域和井盖等重要类别 本沥青路面缺陷目标检测数据集提供6,000张精心标注的高质量图像,包含6个关键类别:裂缝、裂缝修补、坑洞、坑洞修补、井盖及其他。 数据集介绍: https://mp.csdn.net/mp_blog/creation/success/147170602
2023年自考自动化制造系统数控铣削.doc
2023年计算机等级考试一级笔试试卷.doc
内容概要:本文详细介绍了使用C#和Xamarin开发一款手机组态应用程序,用于通过WiFi实时监控西门子S7-1200 PLC的运行状态。主要内容涵盖PLC通信配置、登录模块的安全措施、数据交互与缓存、异常处理以及报警推送等功能的实现。文中提供了具体的代码示例和技术细节,如使用S7.Net库进行PLC连接、JSON格式缓存PLC状态、SHA256密码哈希、心跳机制维持WiFi连接稳定性和跨线程UI更新等。 适合人群:具有一定编程基础,尤其是熟悉C#和Xamarin框架的研发人员,以及从事工业自动化领域的工程师。 使用场景及目标:适用于希望将工业控制系统集成到移动设备的应用开发者,旨在提高工业现场监控效率,减少维护成本。具体目标包括实现远程监控、提升系统的可靠性和安全性,以及改善用户体验。 其他说明:文中提到多个实用技巧和常见问题解决方案,如WiFi配置、安卓系统权限设置、不同品牌手机的后台服务限制处理等。同时强调了工业无线通信不仅涉及编程技能,还需要掌握一定的网络基础知识。
内容概要:本文详细介绍了基于MATLAB/Simulink构建VIENNA整流器仿真模型的过程,重点探讨了电压电流双环控制策略及其参数调整方法。作者通过反复试验确定了电压外环PI控制器的最佳参数配置,并解决了电流内环滞环控制带来的开关频率和电感啸叫等问题。同时,文中还涉及了坐标变换、锁相环、电容选型等关键技术细节,确保直流母线电压纹波控制在0.5%以内,实现了高效稳定的整流效果。 适合人群:从事电力电子研究的技术人员、高校相关专业师生以及对VIENNA整流器感兴趣的工程师。 使用场景及目标:适用于需要深入了解VIENNA整流器工作原理及其实现方式的研究项目;帮助读者掌握如何利用MATLAB/Simulink进行复杂电力电子系统的建模仿真;提供了一套完整的参数调试思路和技术解决方案。 其他说明:文中不仅提供了详细的数学公式和代码片段,还有丰富的实验数据支持,使得理论与实践紧密结合。此外,作者分享了许多宝贵的实战经验,如抗饱和处理、死区时间设置等,有助于提高读者的实际操作能力。
内容概要:本文详细介绍了基于STM32L073和SX1278的LoRaWAN工业温控器的量产代码设计与实现。主要内容涵盖硬件架构与基础配置、IAP固件升级、温湿度采集与滤波、继电器控制与工况检测、LoRaWAN通信等方面。文中不仅提供了关键代码示例,还分享了许多实战经验和技术难点解决方案,如低功耗优化、抗干扰措施、数据传输可靠性等。 适合人群:嵌入式系统开发者、物联网工程师、工业自动化技术人员。 使用场景及目标:适用于工业环境中需要远程监控和控制温湿度的场合,旨在提高系统的稳定性和可靠性,确保设备能够在恶劣环境下正常运行。 其他说明:文章强调了工业级设备开发过程中需要注意的各种细节,如硬件选型、软件优化、抗干扰设计等,对于从事类似项目的技术人员具有很高的参考价值。
2023年山东电子商务师考试试题答案.doc
2023年农村信用社考试计算机.doc
1. CompletableFuture 简介 2. CompletableFuture 基础操作 3. CompletableFuture 异常处理 4. CompletableFuture 组合操作 5. CompletableFuture 的超时和取消 6. CompletableFuture 线程池管理 7. CompletableFuture 实际应用场景
matlab
MATLAB(Matrix Laboratory)是一种广泛应用于科学计算、工程分析和数据可视化的高级编程语言和开发环境。它以矩阵操作为核心,具有强大的数值计算能力和丰富的工具箱支持。以下是MATLAB基础学习的指南,帮助你快速入门并掌握其核心功能。 --- ### **1. MATLAB 基础概念** - **工作区(Workspace)**:存储变量的地方,所有定义的变量都会显示在这里。 - **命令窗口(Command Window)**:输入命令并即时执行的地方。 - **脚本文件(Script File)**:包含一系列MATLAB命令的`.m`文件,可以重复运行。 - **函数文件(Function File)**:定义自定义函数的`.m`文件,可以接受输入参数并返回输出结果。 --- ### **2. MATLAB 基础语法** #### **(1) 变量与数据类型** - MATLAB 是动态类型的,无需显式声明变量类型。 - 常用数据类型包括: - 数值类型:`double`(默认)、`int8`、`uint8` 等。 - 字符串:`string` 或字符数组(如 `'hello'`)。 - 逻辑类型:`true` 和 `false`。 - 示例: ```matlab a = 10; % 整数 b = 3.14; % 浮点数 c = 'Hello'; % 字符串 d = true; % 逻辑值 ``` #### **(2) 矩阵与数组** - MATLAB 的核心是矩阵操作,几乎所有数据都以矩阵形式存储。 - 创建矩阵: ```matlab A = [1, 2, 3; 4, 5, 6; 7, 8, 9]; % 3x3 矩阵 B = [10, 20,
内容概要:本文详细介绍了使用Simulink进行静止无功发生器(SVG)仿真的全过程。首先,构建了三相两电平拓扑的主电路,特别关注IGBT模块参数设置和直流侧电容的选择。接着,深入探讨了控制环路的设计,特别是锁相环(PLL)模块的参数调整方法及其对系统性能的影响。文中还提供了多个MATLAB代码片段,用于实现电流控制器、PLL算法以及波形分析等功能。此外,文章强调了仿真过程中常见的陷阱和解决方案,如仿真步长选择、PWM脉冲毛刺处理等。最后,通过FFT分析验证了SVG的补偿效果,展示了显著降低谐波畸变率的实际成果。 适合人群:从事电力系统研究和技术开发的专业人士,尤其是熟悉Simulink和MATLAB的工程师。 使用场景及目标:适用于需要深入了解SVG工作原理和仿真技术的研究人员,旨在提高SVG系统的性能和稳定性,确保无功补偿效果最优。 其他说明:文章不仅提供了详细的理论分析,还结合了大量的实践经验,帮助读者更好地理解和解决实际问题。