import urllib2
import StringIO
h = urllib2.HTTPHandler(debuglevel = 0)
reqStockData = urllib2.Request('http://ichart.yahoo.com/table.csv?s=000001.SS&a=07&b=4&c=2010&d=11&e=31&f=2010&g=d')
opener = urllib2.build_opener(h)
data = opener.open(reqStockData)
inputStream = StringIO.StringIO(data.read())
try:
f = open('d:\\a.csv','w')
while True:
byte = inputStream.next()
f.write(byte)
except StopIteration,e:
f.close()
#然后可以用python自带的csv模块进行读取
import csv
readCsv = csv.reader(open('d://a.csv'))
for Date,Open,High,Low,Close,Volume,adjClose in readCsv:
print Date
进一步阅读:
http://www.pythonclub.org/python-files/csv
分享到:
相关推荐
5. **存储数据**:使用pandas的DataFrame将转换后的数据组织成表格,然后可以将其保存为CSV文件,便于后续分析。在这个案例中,文件名为"stockData"。 6. **异常处理**:在爬虫程序中,需要处理可能出现的各种异常...
在本主题中,我们将深入探讨两个Python爬取程序,它们分别用于从雅虎财经和天天基金网抓取股票数据。这两个爬虫程序展示了如何利用Python的强大功能来获取实时或历史的金融信息。 首先,让我们了解Python爬虫的基本...
8. **数据存储**:最后,你可能需要将获取的数据保存到本地文件,如CSV或Excel格式,这需要用到`pandas`的`to_csv`或`to_excel`方法。 9. **异常处理**:在实际编程中,学会编写异常处理代码至关重要,这样程序在...
本篇文章将详细讲解如何通过编程方式从网络获取股票历史数据,并将其存储到数据库中,同时介绍一些股票数据的处理方法。 首先,我们需要明确的是获取股票数据的来源。通常,我们可以从各大股票交易所的官方网站、...
4. **API接口**:许多股票数据提供商提供了API接口,可以直接通过调用API获取数据,比如雅虎财经、新浪财经等。Python的`requests`库同样可以用于API请求,而`json`库则用于解析返回的JSON数据。 5. **数据存储**:...
常见的数据提供商有雅虎财经(Yahoo Finance)、Google财经、Alpha Vantage、Quandl、Wind资讯等。它们提供了API接口,可以通过HTTP请求获取数据。 2. **API调用**:Python的`requests`库可以用来发送HTTP请求,...
在本项目中,"StockMessageGet.zip" 是一个包含 R 语言代码的压缩包,用于从接口抓取实时股票数据并存储为 CSV 文件。R 语言是一种强大的统计分析和图形生成工具,在金融数据分析领域有着广泛的应用。以下是这个项目...
在`getyahoo10.m`中,开发者可能使用了MATLAB的webread函数或者自定义的HTTP请求函数来与雅虎财经服务器交互,获取CSV或JSON格式的数据,然后将其转换为MATLAB的数据结构,如时间序列(timeseries)。 在MATLAB中,...
9. **数据存储**:爬取和分析后的数据,可以保存为CSV、Excel或数据库格式,以便后续使用。pandas提供了方便的数据导出功能。 通过以上步骤,我们可以构建一个完整的股票爬虫系统,从数据采集到分析、可视化,实现...
这些数据可以从各种金融数据提供商处获取,如雅虎财经、Google Finance、新浪财经等,或者是通过API接口,如Alpha Vantage、Quandl、IEX Cloud等。对于开发者而言,最直接的方式是利用编程语言(如Python)来实现...
根据项目需求,我们可以将数据存储到数据库中,也可以保存为CSV或JSON文件等格式,以便后续的数据分析或可视化处理。存储数据的过程需要考虑到数据的完整性和安全性,确保数据不会丢失,并且被安全地保存。 最后,...
在股票爬虫中,我们可以利用Pipeline对抓取的股票数据进行格式化和存储到数据库或CSV文件。 4. **Request/Response**:Scrapy使用Request对象来发起HTTP请求,并用Response对象来接收响应。在爬取过程中,Spider会...
收集到的股票数据需要保存起来,可以使用`pandas`库进行数据处理,并将数据保存为CSV、Excel或数据库(如SQLite、MySQL)文件,便于后续分析。 8. **异常处理**: 爬虫在运行过程中可能会遇到各种问题,如网络...
Python的`pandas`库非常适合处理和存储金融数据,可以将数据转换为DataFrame对象,然后保存为CSV、Excel或其他格式。对于大量数据,还可以考虑使用数据库如SQLite或MySQL进行存储。 在实际开发过程中,我们还需要...
5. 数据存储:数据可能被存储在本地文件(如CSV或Excel)或数据库中,如SQLite、MySQL或PostgreSQL。Python的`pandas`库和`sqlalchemy`库可以帮助进行数据的读写和管理。 6. GUI编程:如果系统包含图形用户界面,...
2. **API接口**:许多金融数据提供商如雅虎财经、Google财经、新浪财经等都提供了API,开发者需要理解如何调用这些API来获取股票数据。 3. **数据解析**:股票数据通常以JSON、XML或CSV格式返回,理解这些数据格式...
这个库能够连接到各种金融市场数据源,如雅虎财经、谷歌财经等,通过API接口实时或历史地获取股票、期货、数字货币等多种资产的价格信息。开发者无需关心底层的网络请求和数据解析,只需简单调用库中的函数,即可...
在IT行业中,网络爬虫是获取在线数据的重要工具,尤其对于金融领域的数据分析,如雅虎财经这样的平台。本文将深入探讨如何使用C#语言编写网络爬虫,来抓取并分析"雅虎财经"网站上的分析师观点、估计和市场数据。 ...
本示例中,我们探讨了如何使用Visual Basic Script (VBS) 来从雅虎财经获取实时汇率信息。VBS是一种脚本语言,常用于Windows环境下的自动化任务。 首先,我们需要了解两个关键的自定义函数:`bytes2bstr` 和 `Get...
8. **数据存储与文件操作**:项目可能使用CSV或Excel文件存储数据,Python的内置函数或pandas提供的方法可以方便地进行文件读写。 9. **异常处理和调试**:在实际编程中,错误处理和调试是必不可少的。了解如何使用...