Curso TensorFlow An open source Machine Learning

  • DevOps | CI | CD | Kubernetes | Web3

Curso TensorFlow An open source Machine Learning

16 horas
Visão Geral

Curso TensorFlow An open source Machine Learning. TensorFlow é um arranjo de código aberto completo para IA. Este Curso TensorFlow An open source Machine Learning, tem um conjunto abrangente e versátil de dispositivos, bibliotecas e recursos de sistema que permitem aos pesquisadores avançar na linha de frente em ML e os criadores desenvolverem e transmitirem adequadamente aplicativos energizados por ML. O TensorFlow foi inicialmente criado por especialistas e criadores que trabalham no grupo Google Brain dentro do relacionamento de pesquisa de inteligência de máquina do Google para liderar a exploração de IA e estruturas neurais significativas. O sistema também é suficientemente amplo para ser material em uma ampla coleção de vários espaços.

O TensorFlow fornece APIs Python e C++ estáveis, da mesma forma que uma API ideal retroativa não garantida para vários idiomas.

Este é um Curso TensorFlow An open source Machine Learning, em Inteligência Artificial que é uma abordagem de aprendizagem abrangente para dominar os domínios de Inteligência Artificial, Ciência de Dados, Business Analytics, Business Intelligence, codificação Python e Deep Learning. Este programa de treinamento permite que você assuma funções desafiadoras no domínio da Inteligência Artificial.

O Curso TensorFlow An open source Machine Learning, prepararão os alunos para a indústria para cargos de Inteligência Artificial e Ciência de Dados. Após a conclusão deste Programa de Engenheiro de IA, você receberá o certificado de nossa parte nos cursos de Inteligência Artificial no caminho de aprendizagem *. Este certificado atestará suas habilidades como especialista em Inteligência Artificial.

Agenda do Curso TensorFlow An open source Machine Learning:

  • Introdução de Inteligência Artificial
  • Ciência de dados e Python
  • Aprendizado de máquina
  • Aprendizado profundo
  • Processamento de linguagem natural (PNL)
  • Decodificando Inteligência Artificial
  • Fundamentos de aprendizado de máquina e aprendizado profundo
  • Fluxo de trabalho de aprendizado de máquina
  • Métricas de desempenho
Publico Alvo
  • Desenvolvedores que desejam ser Engenheiros de Inteligência Artificial ou Engenheiros de Aprendizado de Máquina
  • Gerentes de análise que lideram uma equipe de analistas
  • Arquitetos de Informação que desejam adquirir experiência em algoritmos de Inteligência Artificial
  • Profissionais de Analytics que desejam trabalhar com aprendizado de máquina ou inteligência artificial
  • Calouros e graduados que buscam construir uma carreira em Inteligência Artificial e aprendizado de máquina
  • Profissionais que gostariam de abordar a Inteligência Artificial em suas áreas para obter mais informações
Pre-Requisitos
  • Compreensão dos fundamentos da programação Python
  • Conhecimento básico de estatística
Materiais
Português/Inglês + Exercícios + Lab Pratico
Conteúdo Programatico

Introduction

  • Introduction to TensorFlow
  • Architecture of Tensorflow
  • Installation on Local Machine
  • Using TensorFlow in Google Colab
  • Working with Tensors and Operations
  • Keras Low level api
  • Labs:-
  • 1. Installing tensorflow on local machine 2. Working with google colab

Introduction to Artificial Neural Networks

  • a. From Biological to Artificial Neurons
  • b. Different activation functions
  • c. What is perceptron?
  • d. Multilayer perceptron and back propagation
  • e. Working with sequential api
  • f. Working with the functional api
  • g. Using callbacks
  • h. Tensorboard for visualization
  • i. Labs:-
  • 1. Classification on iris dataset using perceptron model
  • 2. Image classification on fashion MNIST dataset using sequential and functional API
  • 3. Improving the model using callbacks

Training Deep Neural Nets

  • a. Challenges of Deep Neural Networks’
  • b. Vanishing and Exploding gradients
  • c. Glorot and He Initialization
  • d. Non Saturating Activation Functions
  • e. Different activation functions effect on deep neural nets
  • f. Batch normalization
  • g. Reusing the pre-trained layers in Neural nets
  • h. Faster optimizers
  • i. L1 and L2 regularization
  • j. Dropouts and their purposes
  • k. Labs:- 1. Classification of MNIST dataset and performance of models by the use of
  • different activation functions.
  • 2. Classification by using a pre-trained layer of model to reduce the computation time.
  • 3. Reducing the overfitting through the use of regularization in various models.

Loading and preprocessing the data

  • a. The data api
  • b. Chaining transformations
  • c. Pre-processing the data
  • d. TFR record format and compressed files
  • e. Introduction to protocol buffer
  • f. Processing the Input features
  • g. TF transform
  • h. Tensorflow datasets project
  • i. Labs:- 1. Implementation of basic functions like repeat, batch, shuffle required for
  • preprocessing.
  • 2. Implement interleave() so as to read many files at a time using tensorflow for improving
  • the performance.
  • 3. Storing and accessing the files stored in tfrecord format for better processing.

Computer Vision using CNN

  • a. Inspiration to the CNN
  • b. Architecture of CNN
  • c. Convolution layers in CNN
  • d. Filters in CNN
  • e. Pooling layer in CNN
  • f. Depth pooling in CNN
  • g. Different architectures of CNN
  • h. Labs:- 1. Implementing different filters to find the different patterns from the image.
  • 2. Progressively reduce the spatial size of an image.
  • 3. Classifying the fashion MNIST dataset by using CNN.

Processing Sequences using RNN

  • a. Single neuron RNN
  • b. Working with RNN neural network
  • c. Input and Output Sequences in RNN
  • d. Introduction to Deep RNN
  • e. Forecasting using RNN
  • f. Unstable gradient problem
  • g. Architecture of LSTM
  • h. Architecture of GRU
  • i. Labs:- 1. Forecasting using simple RNN, Deep RNN, LSTM and GRU

Natural Language Processing

  • a. Introduction to Natural Language processing
  • b. Shakespear text generation using char RNN
  • c. Stateless and stateful RNN
  • d. Concept of sentiment analysis
  • e. Encoder and Decoder Network for Neural Machine Translation
  • f. Pre-processing required for encoder and decoder
  • g. Concept of Beam Search
  • h. Overview of attention mechanism
  • i. Labs:- 1. Generating Shakespearean text using character RNN, Bidirectional RNN.
  • 2. Sentiment analysis of IMDB dataset.

Representative Learning and Generative Learning using Autoencoders and GANs

  • a. Introduction to Autoencoders and GAN
  • b. Efficient data representation
  • c. Dimensionality reduction using autoencoders
  • d. Introduction to stacked autoencoders
  • e. Training one autoencoder at a time
  • f. Recurrent autoencoders
  • g. Sparse autoencoders
  • h. Generative adversarial networks
  • i. Deep Convolutional GANs
  • j. Labs:- 1. Autoencoder for the dimensionality reduction
  • 2. Reconstruction of images using recurrent auto encoder

Reinforcemnent Learning

  • a. Introduction to reinforcement learning
  • b. Learning to optimize rewards
  • c. Policy Search
  • d. Introduction to OpenAI Gym
  • e. Neural Network Policies
  • f. Credit Assignment Problem
  • g. Markov Decision Process
  • h. Q Learning
  • i. Deep Q Learning
  • j. Labs:- 1. Train a Deep Q network with TF agent(Cartpole Environment)
TENHO INTERESSE

Cursos Relacionados

Curso Ansible Red Hat Basics Automation Technical Foundation

16 horas

Curso Terraform Deploying to Oracle Cloud Infrastructure

24 Horas

Curso Ansible Linux Automation with Ansible

24 horas

Ansible Overview of Ansible architecture

16h

Advanced Automation: Ansible Best Practices

32h