从GitHub在TensorFlow模型

为什么80%的码农都做不了架构师?>>>   hot3.png

图像处理/识别

1.PixelCNN&PixelRNN在TensorFlow

TensorFlow实施像素回归神经网络。

地址:https://github.com/carpedm20/pixel-rnn-tensorflow

在TensorFlow 2.Simulated +无监督(S + U)的学习

TensorFlow实现从模拟,并通过对抗性训练无监督图像学习。

地址:https://github.com/carpedm20/simulated-unsupervised-tensorflow

3.ResNet在TensorFlow

的实行图像识别深层残留学习。包括TensorFlow使用He等人公布的训练有素来自Caffe权的工具。

地址:https://github.com/ry/tensorflow-resnet

4.A可组合成式对抗性网络(GAN)与API和命令行工具

HyperGAN,一个多才多艺的GAN(生成对抗网络)实现集中的可扩展性和易于使用。

地址:https://github.com/255BITS/HyperGAN

朱古力vgg16模型5.conversation到tensorflow

VGG-16是我最喜欢的图像分类模型,因为它的简单和准确的运行。该模型的创作者发表的预先训练的二进制文件,可以在来自Caffe使用。

地址:https://github.com/ry/tensorflow-vgg16

6.A吉滴道分割模型tensorflow实施

KittiSeg通过利用基于模型FCN执行道路分割。该模型取得了第一名的在提交时的吉滴道检测基准。看看我们的论文进行了详细的模型描述。

地址:https://github.com/MarvinTeichmann/KittiSeg

对剖成对抗性模型7.TensorFlow教程

地址:https://github.com/ericjang/genadv_tutorial

8.Pretrained模型TFLearn和TensorFlow

地址:https://github.com/tflearn/models

与TensorFlow 9.Generative模型

地址:https://github.com/arahuja/generative-tf

10.Re的实现使用TensorFLow第m RNN模型的

此包是一个重新执行的M-RNN使用图像字幕方法TensorFlow。训练速度与训练句子的不同长度的桶优化。它还支持定向搜索方法对图像特征解码成句子。

地址:https://github.com/mjhucla/TF-mRNN

视觉注意的11.Recurrent模型

从修改https://github.com/jlindsey15/RAM

五Mnih等人的“视觉注意的复发模式”的实现。

通过蟒ram.py运行,并且它可以再现表1(a)中28x28 MNIST结果

地址:https://github.com/zhongwen/RAM

用于使用TensorFlow的CIFAR-10数据集12.Simple图像分类模型

这是博客文章的代码“如何建立一个简单的图像识别系统使用TensorFlow”。

地址:https://github.com/wolfib/image-classification-CIFAR10-tf

13.IllustrationGAN

一个简单,干净TensorFlow实施剖成对抗性网络的重点放在塑造插图。

地址:https://github.com/tdrussell/IllustrationGAN

预先训练14.ImageNet型号批标准化

这个库包含了使用来自Caffe框架在计算机视觉集团耶拿(CVGJ)由马塞尔·西蒙培训了ImageNet卷积神经网络(CNN)模型。每个模型是在一个单独的子文件夹,包含重现结果所需的一切。这个仓库的重点目前包含AlexNet和VGG19的批量标准化变体以及对残余网络(RESNET)的训练码。

地址:https://github.com/cvjena/cnn-models

 

 

语音/语义/文字

1.Multi层回归神经网络(LSTM,RNN)用于使用TensorFlow Python的字级语言模型

大多是从重用代码https://github.com/sherjilozair/char-rnn-tensorflow这是从安德烈杰·卡帕西的启发炭RNN。

地址:https://github.com/hunkim/word-rnn-tensorflow

与CNN 2.LSTM语言模型在中TensorFlow字符

Tensorflow实施的性格感知神经语言模型。作者的原代码,可以发现在这里。

地址:https://github.com/carpedm20/lstm-char-cnn-tensorflow

3.A神经对话模型

我tensorflow实施“的神经对话模式”,一个深学习基于聊天机器人的。这项工作试图重现的结果的神经对话模型(又名谷歌聊天机器人)。它采用了RNN(seq2seq模型)对句预测。它使用python和TensorFlow完成。

地址:https://github.com/Conchylicultor/DeepQA

4.Tensorflow基于神经网络的会话模型

实现包含在Tensorflow会话模型seq2seq教程的延伸。基本型的例子中可以找到这个文件。

地址:https://github.com/pbhatia243/Neural_Conversation_Models

5.ByteNet字符级语言建模

这是一个tensorflow实现从DeepMind的论文字节网络模型的神经机器翻译的线性时间。

地址:https://github.com/paarthneekhara/byteNet-tensorflow

6.Language建模与门控卷积网络

这是一个Tensorflow实现Facebook的人工智能研究实验室的论文:语言模型与门控卷积网络。本文采用卷积方法语言建模与新型封闭式-CNN模型。

地址:https://github.com/anantzoid/Language-Modeling-GatedCNN

7.Experiment不同深度的学习模式为音乐生成与TensorFlow

不同的模型和实验说明这里。

地址:https://github.com/Conchylicultor/MusicGenerator

8.TensorFlow RNN语言模型

该模块是如何创建使用递归神经网络语言模型的例子TensorFlow。

地址:https://github.com/wpm/tfrnnlm

对于文档+话题+字的嵌入监督学习的lda2vec模型9.tensorflow端口

TensorFlow实现克里斯托弗穆迪lda2vec的混合隐含狄利克雷分布与word2vec。

地址:https://github.com/meereeum/lda2vec-tf

对于文本生成10.Implement字符级语言模型基础上LSTM,在Python / TensorFlow

本程序用于自动生成一段中文文本(训练语料是英文时也可用于生成英文文本),具体生成文本的内容和形式取决于训练语料。模型基本思想和 karpathy 的 char-rnn 程序一致,利用循环神经网络 (RNN) 在大规模语料上训练一个 language model,然后利用训练好的 language model 去自动生成一段文本。相比于 theano 版本的 char-rnn 模型,本模型采用了多层 RNN 而不是单层(tensorflow 中实现一个多层 RNN 简直太方便了),同时还支持 max、sample 和 beam-search 多种生成策略。本程序代码参考了 tensorflow 官方给出的一个 language model 程序 ptb_word_lm.py。

地址:https://github.com/hit-computer/char-rnn-tf

11.Visual问题上回答演示预训练模式

这是视觉答疑的一个简单的演示,它使用预训练模型(见型号/ CNN和模型/ VQA)回答有关给定图像的特定问题。

地址:https://github.com/iamaaditya/VQA_Demo

12.tf自适应-SOFTMAX-LSTM-LM

该库显示了PTB(宾州树库)和GBW LSTM语言模型的实验结果(谷歌十亿字上TensorFlow使用AdaptiveSoftmax)。

地址:https://github.com/TencentAILab/tf-adaptive-softmax-lstm-lm

 

 

综合

1.TensorFlow模型

该资源库包含在实现机器学习模型TensorFlow。该模型是由各自的作者维护。

地址:https://github.com/tensorflow/models

生成模型的2.Collection,如甘,VAE在Pytorch和Tensorflow

这里面是什么?

甘: 1.Vanilla GAN GAN 2.Conditional 3.InfoGAN 4.Wasserstein GAN 5.Mode正则GAN GAN 6.Coupled分类7.Auxiliary甘8.Least广场GAN 9.Boundary寻求GAN 10.Energy GaN基11.f-甘12.Generative对抗性并行12.DiscoGAN 13Adversarial地物学习和Adversarially据悉推理

VAE: 1.Vanilla VAE 2.Conditional VAE 3.Denoising VAE 4.Adversarial自动编码5.Adversarial变贝叶斯

地址:https://github.com/wiseodd/generative-models

使用tensorflow 3.Deep学习

Tensorflow项目的一切深深neurally相关的回购。实现和想法主要是基于从的arXiv和实现,从网上的教程文件。

地址:https://github.com/shekkizh/TensorflowProjects

4.A库概率模型,推断和批评。深生成模型,变推论。运行在TensorFlow。

爱德华是一个Python库概率模型,推断和批评。这是一个快速的实验和研究与概率模型,从对小数据集复杂深刻的概率模型对大数据集的经典分层模型实验床。爱德华融合三个方面:贝叶斯统计和机器学习,深度学习和概率性编程。

地址:https://github.com/blei-lab/edward

5.Tensorflow教程文件和各种深NLP和CV模式的实现。

该资源库包含各种深学习模型Tensorflow实现,重点是在自然语言处理的问题。每个单独的子目录是自包含的,解决一个特定的模式。

地址:https://github.com/siddk/deep-nlp

6.A tensorflow库,用于构建各类车型

TensorGraph是用于构建基于TensorFlow任何可以想象到的模型的框架。

由于深学习变得越来越普遍和架构变得越来越复杂,我们似乎需要一些易于使用的框架来快速建立这些模型,这就是为什么TensorGraph出生。这是一个非常简单和容易使用的框架,但它可以让你建立各种可以想象的车型。

地址:https://github.com/hycis/TensorGraph

7.PyTorch和Tensorflow功能模型的定义

模型定义和PyTorch和Tensorflow预训练的权重

PyTorch,不像LUA炬,已autograd在它的核心,所以采用torch.nn模块的模块化结构不是必需的,可以很容易地分配所需的变量和写入利用它们的功能,这是有时更方便。此回购包含此功能的方法模型定义,与某些型号预训练的权重。

权重序列化为在HDF5阵列的一个字典,所以应在其他框架中被容易地装载。由于@edgarriba我们cpp_parser在C ++装载重量。

更多型号来了!我们还计划增加用于定义其他框架在未来,也许微小,DNN第一。欢迎踊跃投稿。

看到PyTorch也imagenet分类demo.ipynb

地址:https://github.com/szagoruyko/functional-zoo

在tensorflow 8.Neural网络模型

地址:https://github.com/AJwader/Tensorflow-models

 

 

其他

1.Caffe模型TensorFlow

转换来自Caffe模型TensorFlow。

地址:https://github.com/ethereon/caffe-tensorflow

2.Run Keras模型(tensorflow后端)在浏览器中,用GPU支持

模型直接从Keras JSON格式配置文件创建的,使用直接从相应的HDF5文件序列权重。也适用于节点,但只有在CPU模式。

地址:https://github.com/transcranial/keras-js

3.Simplify Tensorflow模型的训练和调整

停止浪费你的时间重写的培训,评估和可视化程序为您的ML模式:让DyTB做的工作为您服务!

地址:https://github.com/galeone/dynamic-training-bench

4.Observations和注意事项,了解使用Tensorflow神经网络模型等思想实验的工作

观察和注意事项的回购,了解使用Tensorflow神经网络模型等简单的思想实验的工作。

地址:https://github.com/shekkizh/neuralnetworks.thought-experiments

5.attention模型蕴涵在SNLI语料库Tensorflow和Keras实施

对一个蕴涵注意模型从实现本文中keras和tensorflow。

与keras 1.0.6和tensorflow 0.11.0rc2兼容

我实现了模型去学习keras和tensorflow API的,所以我还没有真正调整上的表现。在keras实现的模型是有一点不同,因为keras不公开设定LSTMs状态的方法。

地址:https://github.com/shyamupa/snli-entailment

与TensorFlow和6.Multilayer馈神经网络预测模型的实现scikit学习

该项目提供了多层感知预测模型,实现并采用TensorFlow并按照scikit-learnPredictor API。

地址:https://github.com/civisanalytics/muffnn

7.Keras预训练模型(VGG16和InceptionV3)+迁移学习在牛津102的花集预测类

看我为识别植物和照顾他们的应用程序- 植物护理。它的工作原理使用从该回购实现的模型的代码。

这个自举深卷积神经网络的训练Keras在图像分类牛津102类花卉的数据集。

火车过程完全自动化,并为模型最好的权重将被保存。

该代码可用于任何数据集,只需按照数据/分类目录的原始文件结构运行后bootstrap.py 。如果你想存储你的数据集在其他地方,你可以做到这一点,运行train.py 与设置路径的特殊参数为DataSet --data_dir ==路径/到/你/排序/数据。

地址:https://github.com/Arsey/keras-transfer-learning-for-oxford102

8.Tensorflow型号为动物园和Torch7 PyTorch

这是由tensorflow预训练模式的移植雷米·卡代内和米卡尔·卡瓦尔哈。特别感谢莫斯特珀·西塞。所有机型已在Imagenet测试。

这项工作得到了启发以来,v3.torch。

地址:https://github.com/Cadene/tensorflow-model-zoo.torch

9.Keras实行“宽残余网络”

此回购包含的代码运行使用Keras宽残余网络。

  • 纸(V1):http://arxiv.org/abs/1605.07146v1(作者已经因为发表的论文,介绍略有不同的预处理,提高了准确度一点的V2)。
  • 原代码:https://github.com/szagoruyko/wide-residual-networks

地址:https://github.com/asmith26/wide_resnets_keras

 

 

 

微信公众号:okweiwu

AI研习社--雷锋网

转载于:https://my.oschina.net/sin58/blog/871673

你可能感兴趣的:(从GitHub在TensorFlow模型)