Visão Geral
Curso Natural Language Processing with TensorFlow. TensorFlow é uma biblioteca de software de código aberto para computação numérica usando gráficos de fluxo de dados. SyntaxNet é uma estrutura de processamento de linguagem natural de rede neural para TensorFlow.
Word2Vec é usado para aprender representações vetoriais de palavras, chamadas "word embeddings". Word2vec é um modelo preditivo particularmente eficiente em termos computacionais para aprender incorporações de palavras a partir de texto bruto. Ele vem em dois sabores, o modelo Continuous Bag-of-Words (CBOW) e o modelo Skip-Gram. Usados em conjunto, SyntaxNet e Word2Vec permitem aos usuários gerar modelos de incorporação aprendida a partir de entrada de linguagem natural.
Objetivo
Ao participar do Curso Natural Language Processing with TensorFlow, os participantes aprenderão a:
- Entenda a estrutura e os mecanismos de implantação do TensorFlow
- Executar tarefas e configuração de instalação/ambiente de produção/arquitetura
- Avalie a qualidade do código, execute depuração e monitoramento
- Implemente produção avançada, como modelos de treinamento, incorporação de termos, construção de gráficos e registro
Publico Alvo
- Este Curso Natural Language Processing with TensorFlow, é direcionado a desenvolvedores e engenheiros que pretendem trabalhar com modelos SyntaxNet e Word2Vec em seus gráficos TensorFlow.
Pre-Requisitos
- Conhecimento prático do Tensorflow
Materiais
Inglês/Português/Lab Prático
Conteúdo Programatico
Getting Started
- Setup and Installation
TensorFlow Basics
- Creation, Initializing, Saving, and Restoring TensorFlow variables
- Feeding, Reading and Preloading TensorFlow Data
- How to use TensorFlow infrastructure to train models at scale
- Visualizing and Evaluating models with TensorBoard
TensorFlow Mechanics 101
- Prepare the Data
- Download
- Inputs and Placeholders
- Build the Graph
- Inference
- Loss
- Training
- Train the Model
- The Graph
- The Session
- Train Loop
- Evaluate the Model
- Build the Eval Graph
- Eval Output
Advanced Usage
- Threading and Queues
- Distributed TensorFlow
- Writing Documentation and Sharing your Model
- Customizing Data Readers
- Using GPUs
- Manipulating TensorFlow Model Files
TensorFlow Serving
- Introduction
- Basic Serving Tutorial
- Advanced Serving Tutorial
- Serving Inception Model Tutorial
Getting Started with SyntaxNet
- Parsing from Standard Input
- Annotating a Corpus
- Configuring the Python Scripts
Building an NLP Pipeline with SyntaxNet
- Obtaining Data
- Part-of-Speech Tagging
- Training the SyntaxNet POS Tagger
- Preprocessing with the Tagger
- Dependency Parsing: Transition-Based Parsing
- Training a Parser Step 1: Local Pretraining
- Training a Parser Step 2: Global Training
Vector Representations of Words
- Motivation: Why Learn word embeddings?
- Scaling up with Noise-Contrastive Training
- The Skip-gram Model
- Building the Graph
- Training the Model
- Visualizing the Learned Embeddings
- Evaluating Embeddings: Analogical Reasoning
- Optimizing the Implementation
TENHO INTERESSE