首页 > TAG信息列表 > boto

python-如何使用AWS S3策略为联盟用户强制执行资源所有权?

我正在编写一个有一组用户的应用程序,每个用户在S3存储桶中的“目录”中将有许多与之关联的文件.用户将使用Amazon的STS进行身份验证,获得临时安全凭证,该凭证应允许他们访问自己拥有的资源,同时不允许他们访问自己不拥有的资源(请考虑“主”目录). 假设用户已经存在于系统中(并且

python-是否可以直接从S3打开文件

我使用Amazon S3来存储我的资源,但是有时我发现有必要打开S3上存储的文件,以便对其进行一些操作. 是否有可能(建议)直接从S3打开文件,还是我应该坚持使用临时的“临时”文件夹? 现在,我正在使用boto扩展与Amazon进行接口.解决方法:无法在S3上打开文件,您只能通过网络读取或添加/替换

如何使用Python创建签名的Cloudfront URL?

我想知道如何为Cloudfront创建一个签名的URL.当前有效的解决方案是不安全的,我想将系统切换到安全的URL. 我尝试使用Boto 2.5.2和Django 1.4 有关如何使用boto.cloudfront.distribution.create_signed_url方法的工作示例吗?或其他任何可行的解决方案? 我已经使用BOTO 2.5.2 API尝试了

使用Python Boto列出AWS EC2实例安全组的入站

我可以使用get_all_security_groups()列出所有安全组 我还可以列出安全组的入站规则.但我也想查看使用boto的规则(入站规则)的来源. 我试图在Google上找到答案,但看不到任何方法可以查看入站规则的来源. 如果有人知道,请分享解决方法:终于解决了 for group in self.conn.get_all_

Python-s3通过boto连接到“文件夹”

我正在尝试使用boto和python将文件上传到特定位置.我正在使用某种东西来达到此效果: from boto.s3.connection import S3Connection from boto.s3.key import Key conn = S3Connection(AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY) bucket = conn.get_bucket('the_bucket_name') f

s3存储桶中的utf-8文件名

是否可以使用utf-8编码名称(例如“åøæ.jpg”)向s3添加密钥? 使用boto上传时出现以下错误: <Error><Code>InvalidURI</Code><Message>Couldn't parse the specified URI.</Message> 解决方法:@ 2083:这是一个古老的问题,但是如果您还没有找到解决方案,那么对于像我这样来到这里的

无法使用boto v2.25.0递增DynamoDB计数器的值

新界面似乎并未公开ADD功能以进行更新.我想做类似的事情: my_item = my_table.get_item(key=my_key,hash=my_hash) my_item.add_attribute('count_votes',1) my_item.partial_save() 在以前的版本中,这似乎可行.在2.25中,我得到:AttributeError:“项目”对象没有属性“ add_attribut

我如何检测dynamodb2中的未写项目?

我正在将代码从dynamodb迁移到dynamodb2.该代码执行批处理写入,而我遇到的主要问题之一是检测未处理的消息.我的代码不断从队列中提取消息,然后将它们批量插入DynamoDB表中.似乎有很多项目(约20%)从未进入表中,而我却没有收到任何错误消息.因此,我的问题是,如何在未插入项目的情况下

python-如何发现boto方法调用与AWS服务操作之间的*精确*对应关系

Boto是使用AWS服务的非常便捷的方式.我想对IAM用户/组/策略非常具体,以便可以对访问进行细粒度的控制.我知道AWS policy generator,但是aws服务太多,每个服务执行的动作太多,以至于制定出针对特定用例的策略总是令人沮丧.我通常要避免很多浪费的反复试验. 我很乐意看到某种目录,该

我有一个AWS访问密钥,并且已经创建了一个SQS队列,但仍然无法使用python boto访问SQS

因此,我有一个AWS访问密钥ID及其相应的AWS秘密密钥.此外,从AWS仪表板中,我已经在SQS中创建了一个队列,并将测试消息放入该队列中.我已经下载了适用于Python的boto.但是,当我尝试运行最基本的命令时,出现错误: import boto.sqs conn = boto.sqs.connect_to_region('us-west-2',

python-Django存储AWS_QUERYSTRING_AUTH不起作用

我一直在尝试解决此问题,但到目前为止我还无法独自解决.关于不希望在S3 url中进行身份验证的问题的反向讨论,有几个不同的文章. 我在我的settings.py中使用带有以下内容的Django-Storages: AWS_STORAGE_BUCKET_NAME = 'testbucket' AWS_ACCESS_KEY_ID = 'xxxxx' AWS_SECRET_ACCES

相当于python boto用于Google存储

我正在寻找使用python脚本(.py)将文件上传到Google存储桶或从Google存储桶下载文件的最简单方法. 对于Amazon S3,有出色的软件包boto,Google存储是否有类似的东西? 请注意,我尝试了以下代码: from boto import connect_gs gs_conn = connect_gs(gs_access_key_id='xxxxxxxxxx

python-在AWS SQS队列中连续读取数据

我是AWS SQS队列的新手,目前正在玩boto.我注意到,当我尝试在while循环中读取填充有消息的队列时,我看到读取10-25条消息后,该队列不返回任何消息(即使该队列有1000条以上的消息).几秒钟后或停止并重新启动程序后,它将开始填充另一组10-25条消息. 虽然为真:   read_queue()//已使

php-在Amazon S3上大规模还原以前的版本

所以.我是个白痴.星期五,我以编程方式重写了一个存储桶中的约14,000个文件,直到今天才意识到这一点.幸运的是,文件已版本化.不幸的是,我找不到一个很好的清晰示例,说明如何编写脚本来遍历文件,然后还原第二个最新版本.我一直在浏览Boto文档,并且了解如何删除版本,但无法恢复.如果有

使用boto连接SES时,欧盟区域不可用

我正在尝试使用boto连接到欧盟地区进行SES.但这并未在区域列表中显示欧盟区域. boto.ses.regions() [RegionInfo:us-east-1] 解决方法:SES in EU region is very new,直到调整Boto为止需要一点时间. 同时,您可以自己创建连接: import boto.ses from boto.regioninfo import Regio

python-Boto不会将S3文件保存到AWS Lambda上的光盘中

我正在开发一个模块,该模块从MySQL数据库获取有关图像序列的信息,然后使用boto库在Lambda上本地下载它们.之后,它应该进行一些图像处理,但我还没有完成. 我不断收到的错误很奇怪. (我相信)下载第一张图片后,它说它不存在于文件/目录中: Traceback (most recent call last): Fil

python-通过boto和multiprocessing.Sool从S3下载文件的性能不可靠

我想从S3下载数千个文件.为了加快过程,我尝试了Python的multiprocessing.Pool,但是我的性能非常不可靠.有时它可以工作,并且比单核版本快得多,但是通常某些文件要花费几秒钟,因此多处理运行所花的时间比单进程要长.有几次我什至得到ssl.SSLError:读取操作超时. 可能是什么原因呢? fr

python – 从S3读取ZIP文件而不下载整个文件

我们的ZIP文件大小为5-10GB.典型的ZIP文件有5-10个内部文件,每个文件大小为1-5 GB,未压缩. 我有一套很好的Python工具来读取这些文件.基本上,我可以打开文件名,如果有ZIP文件,工具搜索ZIP文件,然后打开压缩文件.这一切都相当透明. 我想将这些文件存储在Amazon S3中作为压缩文件.我

python – 使用boto for AWS S3 Buckets for Signature V4

我在区域法兰克福使用Python-Boto SDK for S3 Buckets时遇到问题.根据Amazon link,该地区仅支持V4. document解释了如何为Boto SDK添加V4支持.我添加了一个新的部分: if not boto.config.get('s3', 'use-sigv4'): boto.config.add_section('s3') boto.config.set('s3',

如何使用boto在两个Amazon S3存储桶之间移动文件?

我必须使用Python Boto API在一个存储桶之间移动文件. (我需要它从第一个Bucket中“剪切”文件并在第二个Bucket中“粘贴”它. 最好的方法是什么? **注意:如果我有两个不同的ACCESS KEYS和SECRET KEYS,那有关系吗?解决方法:我认为boto S3文档可以回答你的问题. https://github.com/bot

python – 你可以使用字符串而不是文件处理程序在boto中使用分段上传吗?

是否可以使用带有字符串而不是文件的S3分段上传?我正在使用的字符串是在上传过程中生成的,因此在分段上传开始时,大小和确切内容是未知的.解决方法:没有明确的“upload_part_from_string”方法可用.您可以使用StringIO将类似文件的对象包装在字符串周围,然后将其传递给“upload_part

python – 如何使用boto在Windows ec2实例上挂载临时存储?

我有一个AMI与Windows Server 2008作为EBS根设备.我可以使用boto和远程桌面启动它的实例,但我似乎无法安装它的临时存储.我的BlockDeviceMapping出了什么问题? 这是我的代码: import boto from boto.ec2.connection import EC2Connection conn = EC2Connection(mykey, mysecretkey)

python – Amazon DynamoDB – 特定于区域的连接

我正在使用Python中的boto库连接到DynamoDB.以下代码对我来说很好: import boto key = 'abc' secret = '123' con = boto.connect_dynamodb(key,secret) table = con.get_table('Table Name') -- rest of code -- 当我尝试连接到特定区域时,我可以很好地连接,但让表格正常工作会

python – 使用boto库,我可以避免在S3中基础桶上授予列表权限吗?

我目前有一个IAM角色,其策略如下: { "Version":"2008-10-17", "Statement": [ { "Effect":"Allow", "Action":["s3:ListBucket"], "Resource":[ "arn:aws:s3:::blah.examp

在Python Boto的DynamoDB API中,Layer1和Layer2有什么区别?

哪个应该用于什么? 一个人对另一个人有什么好处吗?解决方法:这只是抽象层次的问题.在大多数情况下,您将需要使用最高级别的API. > Layer1 API是亚马逊API的直接映射> layer2 API为扫描和查询结果添加一些漂亮的抽象,如生成器,以及回答清理. 当你调用layer2时,它调用layer1,最终生成HT