BOTO是一个开源的PYTHON发布包,是AWS(AMAZON WEBSERVICE)的PYTHON封装。
近期,我们公司用到国内某知名公司的S3云存储服务,需要调用该公司提供的S3 PYTHON SDK。鉴于该公司没有PYTHON版本的SDK,所以我决定利用开源的BOTO的S3模块稍加改进。在经过easy_install boto之后便开始了BOTO的封装
以下是我最开始封装的代码模型
1)获取S3连接:
from boto.s3.connection import S3Connection
conn = S3Connection(S3_ACCESSED_ID, S3_SECRECT_ACCESS_KEY,host=S3_HOST)
参数说明:
S3_HOST是提供开放式云存储服务的公司提供的云主机域名
S3_ACCESSED_ID, S3_SECRECT_ACCESS_KEY是该公司提供给我们公司的唯一访问标识
2)PUT上传文件
def put(bucket_name, s3_path, local_file):
b = conn.get_bucket(bucket_name)
k = Key(b)
k.key = s3_path
k.set_contents_from_filename(local_file,policy='public-read')
参数说明:
bucket_name是云主机上的云储存分类标识,类型是字符串,可以说是云储存的第一层目录,比如你们公司可以有mp3,mp4,wma等N个一层目录,也就是所谓的bucket,这个可以通过代码创建,也可以登录到云储存网页的控制台进行手动操作
local_file指的是你要上传的文件,类型是字符串,就是文件绝对路径
s3_path就是文件上传到s3后要在s3上生成的目录结构,上传时会在指定的bucket下生成该多级目录,当然目录的结尾肯定是文件名
3)get下载文件
def get(bucket_name,s3_path,local_file):
b = conn.get_bucket(bucket_name)
key = b.lookup(s3_path)
key.get_contents_to_filename(local_file)
该方法的参数与put方法中的解释类似
这些代码如果在普通的机器上测试的话,会发现没有任何问题,包括上传下载删除之类的操作都能够成功进行。实际开发过程我发现,将这些代码部署到提供云存储的一套云虚拟机环境中,所有的代码都会执行失败。这个过程中,经历了千辛万苦,我还是没有发现个中原因,主要是在云虚拟机环境中创建conn连接是成功的,就是执行到conn.get_bucket(bucket_name)这一步始终通不过,我考虑到是否在get_bucket加入headers认证什么的,后来研究源码发现没有什么可以加入的,经历了两天的苦苦挣扎(这期间,我考虑过放弃BOTO,而封装使用该公司非常复杂难以理解的REST接口,后来发现,他们的REST接口在本地机器更是一个操作都执行不成功,更别说是虚拟机环境,到了周末陷入了两难的境地,开源的封装了搞不好,他们REST封装了也搞不好。)我还是选择重新研究这个报错的信息
Traceback (most recent call last):
File "s3tester.py", line 35, in <module>
main()
File "s3tester.py", line 22, in main
s3.get_bucket()
File "/srv/store/20120913111600/common/file/huaweiyun.py", line 77, in get_bucket
b = conn.get_bucket('vodmedia', validate=True)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/s3/connection.py", line 391, in get_bucket
bucket.get_all_keys(headers, maxkeys=0)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/s3/bucket.py", line 360, in get_all_keys
'', headers, **params)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/s3/bucket.py", line 317, in _get_all
query_args=s)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/s3/connection.py", line 470, in make_request
override_num_retries=override_num_retries)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/connection.py", line 913, in make_request
return self._mexe(http_request, sender, override_num_retries)
File "/usr/local/lib/python2.6/dist-packages/boto-2.5.2-py2.6.egg/boto/connection.py", line 859, in _mexe
raise e
socket.gaierror: [Errno -2] Name or service not known
后来,在始终不愿放弃的情况下艰难搜索,终于发现解决方案
具体是一下两个网上的建议给了我帮助:
http://www.somic.org/2010/11/16/connecting-to-eucalyptus-walrus-s3-with-boto-and-socket-gaierror/
http://www.eucalyptus.com/eucalyptus-cloud/tools/boto
后来遵照他们的说法,我折腾了两天没发现原因的地方,仅仅因为一个小小的配置就成功了。
那就是创建连接是多加入一个参数:calling_format=calling_format
具体代码为:
from boto.s3.connection import S3Connection,OrdinaryCallingFormat
calling_format=OrdinaryCallingFormat()
conn = S3Connection(S3_ACCESSED_ID, S3_SECRECT_ACCESS_KEY,host=S3_HOST,calling_format=calling_format)
将这段代码改进之后,虚拟机上的一套都能够测试通过,包括最需要的上传下载操作,事实证明遇到难题,千万不要放弃,一定要寻找到答案为止。
这个代码改进的成功也打消了我对该公司云存储虚拟机的误解:之前我的代码在普通机器上执行完全正常的情况下到了他们虚拟上就执行失败,我当时非常怀疑是他们的虚拟机做了什么特殊的配置限定了代码访问云主机,后来跟他们的技术交流他们说没有任何特殊配置,可是我还是心存怀疑。直到今天发现问题所在,看来我是误解他们了!抱歉。
分享到:
相关推荐
在众多Python库中,mypy-boto3-s3是一个针对Amazon S3服务的重要工具,它结合了mypy类型检查器和boto3库,为开发者提供了高效、安全的S3操作方案。本文将深入探讨这个库的功能、使用方法以及它在实际项目中的应用。 ...
在1.18.45版本中,mypy-boto3-s3outposts提供了与S3 Outposts服务相关的所有操作的类型注解,包括创建、管理存储站点、配置数据传输以及执行各种数据操作等。例如,你可以使用这个库来创建一个新的S3 Outposts ...
接着,你可以像使用标准的Boto3客户端一样,调用各种S3操作,如上传、下载文件,列举对象等。同时,由于`mypy_boto3_s3`提供了类型注解,mypy将在编译阶段检查代码,确保函数调用参数和返回值类型正确。 **类型注解...
接下来,开发者就可以利用这些客户端和服务资源进行各种S3 Outposts的操作,如创建、读取、更新和删除Outposts,以及管理相关的存储桶和对象。 总之,`mypy-boto3-s3outposts`是Python开发者在处理AWS S3 Outposts...
`mypy-boto3-s3`则是`mypy`针对`boto3`的S3模块的扩展,它为`boto3`的S3操作提供了类型注解。这使得使用`boto3`操作Amazon S3的开发者在享受`mypy`带来的类型检查好处的同时,还能确保与S3相关的代码具有良好的类型...
这意味着,当我们在使用Boto3操作S3时,可以享受到mypy的类型检查优势。例如,我们可以为S3的`upload_file()`、`download_file()`等方法添加类型注解,mypy会检查传入的参数类型是否正确,避免了因类型不匹配导致的...
Boto3提供了一整套接口,用于与AWS的各种服务进行交互,包括Amazon Simple Storage Service (S3)。而mypy_boto3_s3control则是Boto3的类型注解版本,它为Boto3的S3 Control组件增加了类型检查支持,使得在编写Python...
标题中的“PyPI官网下载 | mypy-boto3...总的来说,`mypy-boto3-s3control`是针对AWS S3 Control服务的一个Python库,结合了Boto3的便利性和Mypy的类型安全性,为开发者提供了强大的工具来管理和操作AWS S3的高级特性。
mypy-boto3-s3库将mypy的类型注解功能与Boto3结合,使得在使用Boto3操作S3时可以享受到类型检查带来的益处。通过在Boto3的API上添加类型信息,mypy-boto3-s3可以帮助开发者更准确地理解函数参数和返回值类型,减少因...
**boto3** 是AWS的官方Python SDK(Software Development Kit),它允许开发者直接通过Python代码与AWS的各种服务进行交互,如EC2(Elastic Compute Cloud)、S3(Simple Storage Service)、RDS(Relational ...
2. **Boto3兼容**:该库完全兼容Boto3的S3接口,这意味着你可以使用Boto3的所有S3操作,如上传、下载、列出对象、删除对象等,同时享受到类型注释带来的额外好处。 3. **易于使用**:`mypy_boto3_s3`的API设计简洁...
《Python库mypy-boto3-s3:强化类型检查与AWS S3交互》 在Python的开发领域,库是开发者的重要工具,它们提供了...对于那些重视代码质量和效率的Python项目,尤其是涉及到AWS S3操作的项目,这是一个不可多得的工具。
将myPy与boto3结合,意味着这个库为使用boto3操作S3 Outposts的代码提供了类型提示和类型检查功能,有助于减少运行时错误,提高代码质量。 综上所述,myPy_boto3_s3outposts库是一个专注于AWS S3 Outposts服务的...
Boto3是Amazon Web Services (AWS)的官方Python SDK,它允许Python开发者轻松地访问和操作AWS的各种服务,如EC2、S3、Lambda等。Boto3提供了一种简洁的API,使得开发者能够通过Python代码来执行常见的AWS任务,如...
它提供了类型注解,使得在使用Boto3与S3 Outposts交互时,mypy能更有效地进行类型检查,从而帮助开发者编写出更健壮、更易于维护的代码。 安装`mypy_boto3_s3outposts` 非常简单,你可以通过pip命令进行: ```bash...
在`mypy-boto3-s3-1.17.53.0.tar.gz`这个压缩包中,`mypy-boto3-s3`可能是为`boto3`的S3组件增加了类型注解的版本,这样在使用`boto3`操作S3时,可以利用`mypy`进行更严格的类型检查,提高代码的可靠性和可维护性。...
因此,mypy-boto3-s3可能是对Boto3库的类型注解增强,使得开发者在使用Boto3操作S3时能够享受到mypy的类型检查优势,提高开发效率并减少潜在的运行时错误。 总的来说,mypy-boto3-s3是Python开发者用于与AWS S3服务...
安装完成后,开发者就可以在他们的Python项目中导入并使用mypy_boto3_s3control,从而安全地调用S3Control的相关操作,同时享受到静态类型检查带来的额外好处。 总的来说,mypy_boto3_s3control是Python开发中提升...
在实际使用中,mypy_boto3_s3control提供了丰富的API,允许开发者进行以下操作: 1. **创建和管理S3 Access Points**:S3 Access Points是S3 Control的一个特性,它为S3存储桶提供了有名称的、安全的、网络级别的...
使用`mypy_boto3_s3control`,开发者可以执行一系列S3 Control相关的操作,例如: 1. 创建和管理S3桶:包括创建新的S3桶,设置桶的权限,以及管理桶的生命周期策略。 2. 处理S3多区域存储(Outposts):这允许用户...