Nota: O seguinte artigo irá ajudá-lo com: Google apresentará novas ferramentas Vertex AI em seu AI Summit virtual
As novas ferramentas e parcerias do Google foram projetadas para facilitar a implantação e o trabalho do aprendizado de máquina no mundo real.
O Google anunciou um novo conjunto de recursos e parcerias de produtos na quinta-feira para sua plataforma Vertex AI, projetada para facilitar a implantação de modelos de aprendizado de máquina em ambientes de produção em escala. As novas ferramentas, recursos e parcerias serão visualizados em seu Applied AI Summit virtual hoje ao meio-dia EDT.
VEJO: Folha de dicas do Metaverse: tudo o que você precisa saber (PDF grátis) (TechRepublic)
Novos recursos do Vertex AI
Servidor de redução de treinamento
O Vertex AI Training Reduction Server, que suporta Tensorflow e PyTorch, otimiza a largura de banda e reduz a latência do treinamento distribuído de vários nós em GPUs NVIDIA. De acordo com o Google, o TRS “reduz significativamente o tempo de treinamento necessário para grandes cargas de trabalho de idiomas, como o BERT, e permite ainda a paridade de custos em diferentes abordagens”.
O TRS também simplifica a implantação de Jupyter Notebooks, reduzindo 12 etapas de implantação para um único clique. Esse recurso foi projetado para ajudar a eliminar tarefas de rotina e acelerar a implantação de ML na produção.
Fluxos de trabalho tabulares
Os fluxos de trabalho tabulares incluem uma caixa de vidro e pipeline AutoML gerenciado que permite que os usuários vejam e interpretem cada etapa do processo de criação e implantação do modelo. Isso permite que os cientistas de dados treinem grandes conjuntos de dados de mais de um terabyte sem sacrificar a precisão. Os usuários podem escolher quais partes do processo desejam automatizar e quais partes eles próprios projetam.
Elementos de fluxos de trabalho tabulares também podem ser integrados em pipelines Vertex AI existentes. O Google também adicionou novos algoritmos gerenciados, incluindo modelos avançados de pesquisa como TabNet, seleção de recursos de modelo e destilação de modelo. Futuras adições ao Workflows incluirão modelos proprietários do Google, como Temporal Fusion Transformers, bem como modelos de código aberto, como XGboost e Wide & Deep.
Spark sem servidor
Para acelerar a implantação de modelos de ML em produção e integrar ainda mais os recursos de modelagem de dados diretamente ao ambiente de ciência de dados, o Google anunciou a ferramenta Serverless Spark, bem como parcerias com Neo4j e Labelbox para ajudar os construtores de modelos de ML a trabalhar com dados estruturados, dados gráficos e dados não estruturados.
Para dados estruturados, o Google Serverless Spark permitirá que cientistas de dados iniciem uma sessão de Spark sem servidor em seus notebooks e desenvolvam código de forma interativa.
VEJO: Política de Ética em Inteligência Artificial (TechRepublic Premium)
Para dados gráficos, o Google está anunciando uma parceria com a Neo4j que permite aos cientistas de dados explorar, analisar e projetar recursos de dados conectados no Neo4j e, em seguida, implantar modelos com o Vertex AI a partir de uma única plataforma. Usando Neo4j Graph Data Science e Vertex AI, os cientistas de dados utilizam entradas baseadas em gráficos em casos de uso, como detecção de fraude e anomalia, mecanismos de recomendação, cliente 360 e logística.
Para dados não estruturados, a parceria do Google com a Labelbox permite que os cientistas de dados usem dados não estruturados para criar modelos de aprendizado de máquina na Vertex AI.
Explicações baseadas em exemplos
Para ajudar os cientistas de dados a gerenciar e manter os modelos de ML que estão em produção, o Google está visualizando o Vertex AI Example-based Explanations. Usando explicações baseadas em exemplos para diagnosticar e tratar problemas rapidamente, os cientistas de dados podem identificar exemplos rotulados incorretamente em seus dados de treinamento ou descobrir quais dados coletar para melhorar a precisão do modelo.