本周AI开源项目精选 | 时间序列预测模型、用于对图像进行自我监督学习的python库
作者:互联网
modeltime 时间序列预测模型和机器学习框架
时间序列在变化。企业现在每天需要10,000多个时间序列预测。这就是我所说的高性能时间序列预测系统(HPTSF)-准确,稳健和可扩展的预测。高性能预测系统将为公司节省数百万美元。
特点与优势:
Modeltime在一个框架中解锁时间序列模型和机器学习。无需在各种框架之间来回切换。modeltime解锁了机器学习和经典时间序列分析。
预测:使用ARIMA,ETS和更多模型
先知:使用Facebook的先知算法
其他五花八门的模型
简化的预测工作流程。Modeltime合并了一个简单的工作流,以使用最佳实践进行预测。
项目地址:
https://github.com/business-science/modeltime
Open3D-ML Open3D的扩展,可解决3D机器学习任务
Open3D-ML是Open3D的扩展,用于3D机器学习任务。它建立在Open3D核心库的基础上,并通过用于3D数据处理的机器学习工具进行了扩展。此项目集中于诸如语义点云分段之类的应用程序,并提供了可用于常见任务以及用于训练的管道的预训练模型。
Open3D-ML可与TensorFlow和PyTorch轻松集成到现有项目中,并且还提供独立于ML框架的常规功能,例如数据可视化。
Open3D-ML集成在Open3D v0.11 + python发行版中,并且与以下版本的ML框架兼容。
PyTorch 1.6
TensorFlow 2.3
CUDA 10.1 (On GNU/Linux x86_64, optional)
主要功能:
读取数据集 数据集名称空间包含用于读取常见数据集的类。在这里,我们阅读了SemanticKITTI数据集并将其可视化。
模型,数据集和管道的配置存储在ml3d / config中。用户还可以构造自己的yaml文件来保留其自定义配置的记录。
运行预训练的语义分割模型 在前面的示例的基础上,我们可以使用经过预训练的语义分割模型实例化管道,然后在数据集的点云上运行它。请参阅模型动物园以获取预训练模型的权重。
训练语义分割模型 与推理类似,管道提供了用于训练数据集上的模型的接口。
使用预定义脚本。
任务与算法:
语义分割任务
对于语义分割的任务,我们在所有类上使用均值交越联合(mIoU)来衡量不同方法的性能。该表显示了细分任务的可用模型和数据集以及相应的分数。每个分数都链接到各自的体重文件。
Model / Dataset | SemanticKITTI | Toronto 3D | S3DIS | Semantic3D | Paris-Lille3D |
RandLA-Net (tf) | 53.7 | 69.0 | 67.0 | 76.0 | 70.0 |
RandLA-Net (torch) | 52.8 | 71.2 | 67.0 | 76.0 | 70.0 |
KPConv (tf) | 58.7 | 65.6 | 65.0 | - | 76.7 |
KPConv (torch) | 58.0 | 65.6 | 60.0 | - | 76.7 |
目标检测
对于物体检测任务,我们使用鸟瞰(BEV)和3D的平均平均精度(mAP)来测量不同方法的性能。该表显示了对象检测任务的可用模型和数据集以及相应的分数。每个分数都链接到各自的体重文件。为了进行评估,根据KITTI的验证标准,使用验证子集对模型进行了评估。对模型进行了三类训练(汽车,行人和骑自行车的人)。计算出的值是所有难度级别下所有类别的mAP的平均值。
Model / Dataset | KITTI [BEV / 3D] |
PointPillars (tf) | 61.6 / 55.2 |
PointPillars (torch) | 61.2 / 52.8 |
项目地址:
https://github.com/intel-isl/Open3D-ML
nni 用于自动化机器学习生命周期的开源AutoML工具包
NNI (Neural Network Intelligence) 是一个轻量但强大的工具包,帮助用户自动的进行特征工程,神经网络架构搜索,超参调优以及模型压缩。
NNI 管理自动机器学习 (AutoML) 的 Experiment,调度运行由调优算法生成的 Trial 任务来找到最好的神经网络架构和/或超参,支持各种训练环境,如本机,远程服务器,OpenPAI,Kubeflow,基于 K8S 的 FrameworkController(如,AKS 等),DLWorkspace (又称 DLTS), AML (Azure Machine Learning), AdaptDL(又称 ADL) ,和其他的云平台甚至 混合模式 。
使用场景:
想要在自己的代码、模型中试验不同的自动机器学习算法。
想要在不同的环境中加速运行自动机器学习。
想要更容易实现或试验新的自动机器学习算法的研究员或数据科学家,包括:超参调优算法,神经网络搜索算法以及模型压缩算法。
在机器学习平台中支持自动机器学习。
NNI 功能一览:
NNI 提供命令行工具以及友好的 WebUI 来管理训练的 Experiment。通过可扩展的 API,可定制自动机器学习算法和训练平台。为了方便新用户,NNI 内置了最新的自动机器学习算法,并为流行的训练平台提供了开箱即用的支持。
支持的框架和库 | 算法 | |
内置 |
| 超参调优 穷举搜索
启发式搜索
贝叶斯优化
基于强化学习
神经网络架构搜索
模型压缩 |
项目地址:
https://github.com/microsoft/nni/blob/master/README_zh_CN.md#nni-has-been-released
lightly 用于对图像进行自我监督学习的python库
lightly 是一个用于自我监督学习的计算机视觉框架。
基准测试:
当前实施的模型及其在cifar10上的准确性。所有模型均已使用kNN进行了评估。我们报告了各个时期的最大测试精度以及最大的GPU内存消耗。该基准测试中的所有模型都使用相同的增强功能以及相同的ResNet-18主干。训练精度设置为FP32,并且SGD与cosineLR一起用作优化器。
Model | Epochs | Batch Size | Test Accuracy | Peak GPU usage |
MoCo | 200 | 128 | 0.83 | 2.1 GBytes |
SimCLR | 200 | 128 | 0.78 | 2.0 GBytes |
SimSiam | 200 | 128 | 0.73 | 3.0 GBytes |
MoCo | 200 | 512 | 0.85 | 7.4 GBytes |
SimCLR | 200 | 512 | 0.83 | 7.8 GBytes |
SimSiam | 200 | 512 | 0.81 | 7.0 GBytes |
MoCo | 800 | 512 | 0.90 | 7.2 GBytes |
SimCLR | 800 | 512 | 0.89 | 7.7 GBytes |
SimSiam | 800 | 512 | 0.91 | 6.9 GBytes |
环境要求:
hydra-core>=1.0.0
numpy>=1.18.1
pytorch_lightning>=0.10.0
requests>=2.23.0
torchvision
tqdm
标签:机器,训练,AI,模型,算法,学习,python,开源,Open3D 来源: https://blog.51cto.com/15057851/2672689