Clientes do Amazon SageMaker

Veja como as organizações líderes em todo o mundo estão usando o Amazon SageMaker para criar, treinar e implantar modelos de machine learning (ML).

Articul8 AI

“O Amazon SageMaker HyperPod nos ajudou muito a gerenciar e operar nossos recursos computacionais de maneira mais eficiente com o mínimo de tempo de inatividade. Fomos os primeiros a adotar o serviço HyperPod baseado em Slurm e nos beneficiamos de seus recursos de facilidade de uso e resiliência, resultando em até 35% de melhoria de produtividade e rápida expansão de nossas operações de IA generativa. Como empresa Kubernetes, agora estamos entusiasmados em receber o lançamento do suporte do Amazon EKS para o SageMaker HyperPod. Isso é um divisor de águas para nós, pois se integra perfeitamente aos nossos canais de treinamento existentes e facilita ainda mais o gerenciamento e a operação de nossos clusters Kubernetes em grande escala. Também ajuda nossos clientes finais, pois agora podemos empacotar e produzir esse recurso em nossa plataforma de IA generativa, permitindo que nossos clientes executem seus próprios treinamentos e ajustem as workloads de maneira mais simplificada.”

Arun Subramaniyan, fundador e CEO da Articul8 AI

Observea

“Como uma startup em rápida evolução e uma empresa de pesquisa de IA, o suporte do Amazon EKS no SageMaker HyperPod tem sido fundamental para acelerar nosso tempo de lançamento no mercado. Com o SageMaker Hyperpod, conseguimos lançar uma plataforma estável e segura para oferecer aplicações de computação de alta performance (HPC) em contêineres como um serviço aos nossos clientes finais, incluindo os principais programas universitários de pesquisa de IA, startups de IA e empresas tradicionais. Com o uso do SageMaker HyperPod, nossos clientes e equipes internas não precisam mais se preocupar com a operação e a configuração do ambiente de gerenciamento do Kubernetes, e o SageMaker HyperPod fornece a performance da rede e as configurações otimizadas para suportar workloads complexas de HPC. Com o suporte da EKS no SageMaker HyperPod, podemos reduzir o tempo gasto com trabalhos pesados indiferenciados no gerenciamento da infraestrutura e reduzir os custos operacionais em mais de 30%.”

Vamsi Pandari, fundador da Observea

Recursal AI

“Todo o processo foi simplificado. Usando o SageMaker HyperPod, podemos aproveitar os recursos de resiliência de cluster que identificam e recuperam automaticamente os trabalhos de treinamento do último ponto de verificação salvo no caso de uma falha de hardware. Executamos workloads muito diversas, desde aplicações, inferência e treinamento, com o Kubernetes como fio condutor. Para nós, o Amazon EKS com o SageMaker HyperPod simplesmente funciona: os nós simplesmente entram em nosso cluster."

Nathan Wilce, líder de infraestrutura/dados, Recursal

Rocket Companies

Rocket Mortgage

“A Rocket Mortgage tem orgulho de estar na vanguarda da integração da IA e da ciência de dados na jornada da aquisição de imóveis, com a AWS como parceira fundamental. Usando o Amazon SageMaker, estamos transformando nossas operações de machine learning, aumentando a eficiência e a precisão. O editor visual do SageMaker Pipelines permite avaliações rápidas de desempenho de novos LLMs de código aberto, executando-os por meio de nosso pipeline de validação automatizado. Isso minimiza o tempo necessário para avaliar novos lançamentos, o que é crucial em um cenário em rápida evolução. A facilidade de uso permite que nossas equipes de ciência de dados se concentrem na inovação em vez de na reescrita de código.”

Shawn Malhotra, diretor de tecnologia da Rocket Companies

SatSure

A SatSure, líder global em soluções de inteligência de decisão geoespacial, usa dados de observação da Terra e modelos de aprendizado profundo para gerar insights para vários casos de uso, desde monitoramento de culturas em qualquer clima e pontuação de risco agrícola até detecção de mudanças na cobertura da terra, gerenciamento da vegetação, risco de incêndio e identificação de características da terra.
 

“Utilizamos o Amazon SageMaker Pipelines para criar modelos para uma aplicação que identifica limites de fazendas agrícolas em imagens de satélite de baixa resolução. Desenvolver modelos de aprendizado profundo de última geração a partir de grandes conjuntos de dados de imagens de satélite é extremamente desafiador. Conseguimos nos concentrar mais na inovação de IA e gastar menos tempo em processos manuais porque os Pipelines nos permitem automatizar o pré-processamento frequente de dados, o treinamento de modelos e as implantações de modelos. A interface de usuário de arrastar e soltar facilita que os novos cientistas de dados da equipe se desenvolvam rapidamente e criem fluxos de trabalho de ML sem o conhecimento especializado de uma estrutura específica de orquestração de fluxo de trabalho.”

Prateep Basu, fundador e CEO da SatSure Ltd.

EagleView

“Para atender à demanda de nossos clientes por insights de dados de alta qualidade, estamos constantemente pesquisando e fornecendo novos recursos baseados em ML. A nova interface de usuário de arrastar e soltar do Amazon SageMaker Pipelines fornecerá aos nossos cientistas de dados uma maneira de se concentrarem nos problemas mais difíceis de visão computacional (CV) sem se preocupar com os MLOps. Estamos criando pipelines que permitem aos cientistas de dados simplesmente registrar seus modelos no SageMaker sem precisar se coordenar com os engenheiros de ML para otimizar o ambiente de serviço de modelos. O Pipeline de várias etapas implantará automaticamente modelos registrados nos endpoints do Amazon SageMaker Inference em ambientes de controle de qualidade para testes de carga e, se aprovados pelos engenheiros de ML, em ambientes de produção. A velocidade geral do nosso desenvolvimento de ML de ponta a ponta melhorou significativamente porque o Amazon SageMaker Pipelines facilita a integração com outros serviços da AWS (CI/CD, serviços de mensagens) para criar fluxos de trabalho de ML altamente personalizados.”

Garrett Hemann, diretor de IA/ML, EagleView

Thomson Reuters

GoDaddy

Na GoDaddy, nosso objetivo é ajudar empreendedores comuns a terem sucesso, fornecendo a eles as ferramentas para estabelecer seus negócios. "Atendemos clientes com necessidades diversas. Eles geralmente se comunicam com as empresas que apoiam 24 horas por dia e em vários canais, incluindo e-mail, bate-papo e mídias sociais”, disse Jing Xi, vice-presidente de ML e IA aplicados da GoDaddy. “Hoje, a IA generativa nivela o campo de atuação das pequenas empresas, dando a elas uma quantidade incrível de poder e conhecimento, normalmente reservados para grandes corporações, na ponta dos dedos. No entanto, um dos maiores desafios que nossas equipes de desenvolvimento de IA generativa enfrentam é tentar descobrir qual FM é ideal para suas aplicações de negócios. É importante que possamos comparar facilmente modelos com base em critérios específicos que são mais importantes para nossos clientes e alcançar o equilíbrio certo entre custo, latência e precisão e desempenho do modelo. O novo recurso de avaliação de modelos do Amazon SageMaker nos ajuda a acelerar o tempo necessário para passar da ideia à implementação, removendo as complexidades envolvidas no processo de seleção de modelos e executando com facilidade a experimentação, o desenvolvimento, a implantação e o gerenciamento de novas versões desses modelos. Estamos entusiasmados em expandir o acesso a esse novo recurso para mais equipes, para que nossos desenvolvedores possam aumentar sua produtividade e liberar ainda mais o poder da IA generativa para que os clientes expandam seus negócios".
“A GoDaddy está na vanguarda ao aproveitar o machine learning para oferecer recursos focados no cliente, bem como melhorar a eficiência de custos em nossas operações internas. Nossos cientistas de ML trabalham em vários projetos para atingir essas metas. A rápida iteração no fluxo de trabalho de ML de curadoria de dados, registro de experimentos em log e gerenciamento de artefatos de modelos usando um registro e implantação de modelos é essencial para gerar valor. A necessidade de uma ferramenta feita sob medida, como o MLflow, foi uma solicitação forte e clara de nossos cientistas de ML. O Amazon SageMaker oferece uma plataforma gerenciada e governada para cientistas de ML para fluxos de trabalho de ML de ponta a ponta e, ao permitir o uso de uma ferramenta padrão do setor, como o MLflow dentro do SageMaker, impulsiona nosso ciclo de vida de desenvolvimento de modelos. Obtemos a segurança e a maturidade de nível corporativo de produtos como o Registro de Modelos do Amazon SageMaker e, ao mesmo tempo, utilizamos o rastreamento de experimentos de ML padrão do setor via MLflow. A adoção do MLFlow do SageMaker em nossas equipes reduziu a carga operacional de manter nossas próprias instâncias hospedadas pelo MLFlow, mantendo nossa velocidade de entrega e permitindo uma colaboração aprimorada. Estamos felizes em colaborar com a equipe do SageMaker desde as fases iniciais para solidificar essa oferta de produtos e, ao mesmo tempo, oferecer valor aos nossos cientistas de ML.”

Karthik Iyer, diretor de engenharia de machine learning

KBC

KBC

“No KBC Bank, acreditamos que capacitar nossos cientistas de dados com as ferramentas certas é essencial para impulsionar a inovação. Uma forma eficaz de inovar é por meio da experimentação contínua, que nos permite explorar novas ideias e melhorar nossos modelos. O MLflow fornece uma plataforma robusta para gerenciar e documentar experimentos. Tê-lo como um serviço gerenciado aprimorará a experiência do usuário para nossos cientistas de dados e, ao mesmo tempo, simplificará a configuração e a manutenção de nossa plataforma de machine learning.”

Thiago Alves, engenheiro de MLOps

Wallapop

Wallapop

“Para gerenciar com eficácia o crescente número de experimentos de ML e garantir a implantação bem-sucedida dos modelos, é crucial ter um sistema robusto para rastrear experimentos e registrar modelos. O MLflow fornece uma solução eficiente para essa finalidade, pois permite o rastreamento contínuo de todos os experimentos de ML em detalhes, exigindo modificações mínimas em nossa base de código. Isso facilita a seleção do modelo ideal para o Wallapop e garante um processo de desenvolvimento de ML simplificado e eficiente. Assim, ter essa plataforma diretamente integrada e gerenciada na AWS permite que nossa equipe se concentre no valor real de nossas soluções de ML, em vez de realizar todo o trabalho pesado que esse serviço exigiria.”

Martí Jordà Roca, engenheiro de machine learning

BigaBid

BigaBid

“O Amazon SageMaker nos permite criar modelos distribuídos de machine learning em grande escala com facilidade. Em vez de depender de processos manuais, podemos automatizar a maior parte do desenvolvimento sem problemas no Amazon SageMaker. Precisamos de uma maneira confiável de acompanhar o desempenho de nossos trabalhos de treinamento automatizado para que possamos comparar trabalhos, encontrar os melhores modelos e implantá-los na produção. A integração com o MLflow nos permite fazer isso sem o trabalho pesado envolvido na configuração e gerenciamento do MLflow por conta própria. Isso aprimora ainda mais nosso fluxo de trabalho, fornecendo uma funcionalidade robusta para comparar modelos e registro de modelos, melhorando significativamente nossa eficiência de desenvolvimento e implantação.”

Eyal Trabelsi, arquiteto de dados

Toyota Connected

Toyota Connected

“O Amazon SageMaker com MLflow forneceu grande valor como uma integração simples, mas altamente eficaz, com o SageMaker para rastrear e gerenciar experimentos e a qualidade do modelo. A integração nativa do MLflow com o Amazon SageMaker facilitou nossas tarefas de rastreamento e promoção de modelos. Sendo um serviço gerenciado, não precisamos nos preocupar com a infraestrutura subjacente, o que nos permite focar em melhorar nossos modelos e acelerar nosso ciclo de desenvolvimento.”

Sumeet Kishnani, cientista administrativo de dados

Thomson Reuters

Thomson Reuters

“A Thomson Reuters está na vanguarda do desenvolvimento da IA há mais de 30 anos e estamos comprometidos em fornecer soluções significativas que ajudem nossos clientes a obter resultados mais rapidamente, com melhor acesso a informações confiáveis. Para acelerar nossa inovação em IA generativa, além de fazer parcerias com fornecedores de LLM, também estamos explorando modelos personalizados de treinamento de maneira mais eficiente com nosso conteúdo exclusivo e proprietário e nossa experiência humana. As bibliotecas de treinamento distribuídas do SageMaker HyperPod nos ajudam a melhorar a performance do treinamento de modelos em grande escala. E seu atributo de resiliência economiza tempo à medida que monitoramos e gerenciamos a infraestrutura. Treinar nossos modelos de base no SageMaker HyperPod aumentará nossa velocidade de comercialização e nos ajudará a fornecer soluções de qualidade para nossos clientes em ritmo acelerado.”

Joel Hron, diretor de IA e laboratórios da Thomson Reuters

“Conseguimos atender aos nossos grandes requisitos de treinamento de modelos linguísticos usando o Amazon SageMaker HyperPod. Usando o Amazon EKS no SageMaker HyperPod, conseguimos ampliar a capacidade e executar facilmente trabalhos de treinamento, o que nos permitiu aproveitar os benefícios dos LLMs em áreas como resumo e classificação legais.”

John Duprey, engenheiro ilustre da Thomson Reuters Labs

Hugging Face

Hugging Face

“A Hugging Face tem usado o SageMaker HyperPod para criar novos modelos abertos de base importantes, como StarCoder, IDEFICS e Zephyr, que já foram baixados milhões de vezes. Os recursos específicos de resiliência e performance do SageMaker HyperPod permitiram que nossa equipe de ciência aberta se concentrasse em inovar e publicar melhorias importantes na maneira como os modelos de base são criados, em vez de gerenciar a infraestrutura. Gostamos especialmente de como o SageMaker HyperPod é capaz de detectar falhas de hardware de ML e substituir rapidamente o hardware defeituoso sem interromper o treinamento contínuo dos modelos. Como nossas equipes precisam inovar rapidamente, esse atributo automatizado de recuperação de trabalhos nos ajudou a minimizar as interrupções durante o processo de treinamento dos modelos de base, ajudando a economizar centenas de horas de treinamento em apenas um ano.”

Jeff Boudier, chefe de produtos da Hugging Face.

Hugging Face

Perplexity AI

“Estávamos procurando a infraestrutura de ML certa para aumentar a produtividade e reduzir custos a fim de criar grandes modelos de linguagem de alta performance. Depois de executar alguns experimentos bem-sucedidos, mudamos de outros provedores de nuvem para a AWS para usar o Amazon SageMaker HyperPod. Estamos usando o HyperPod nos últimos quatro meses com o objetivo de criar e ajustar os LLMs para alimentar o mecanismo de respostas conversacionais Perplexity, que responde a perguntas junto com as referências fornecidas no formato de citações. Como o SageMaker HyperPod monitora automaticamente a integridade do cluster e corrige falhas de GPU, nossos desenvolvedores podem se concentrar na criação de modelos em vez de perderem tempo gerenciando e otimizando a infraestrutura subjacente. As bibliotecas paralelas de dados e modelos incorporadas do SageMaker HyperPod nos ajudaram a otimizar o tempo de treinamento em GPUs e a dobrar a throughput dos treinamentos. Como resultado, nossos experimentos de treinamento agora podem ser executados duas vezes mais rápido, o que significa que nossos desenvolvedores podem iterar com mais rapidez, acelerando o desenvolvimento de novas experiências de IA generativa para nossos clientes.”

Aravind Srinivas, cofundador e CEO da Perplexity AI

Hugging Face

Workday

“Mais de 10.000 organizações em todo o mundo confiam na Workday para gerenciar seus ativos mais valiosos: seu pessoal e seu dinheiro. Fornecemos soluções responsáveis e transparentes aos clientes selecionando o melhor modelo de base que reflete as políticas de nossa empresa em relação ao uso responsável da IA. Para tarefas como a criação de descrições de trabalhos, que devem ser de alta qualidade e promover oportunidades iguais, testamos o novo recurso de avaliação de modelos no Amazon SageMaker e estamos entusiasmados com a capacidade de medir modelos de base em métricas como viés, qualidade e performance. Esperamos usar esse serviço no futuro para comparar e selecionar modelos que se alinhem aos nossos rigorosos critérios de IA responsável.”

Shane Luke, vice-presidente de IA e machine learning da Workday.
 

Hugging Face

Salesforce

“Na Salesforce, temos uma abordagem de ecossistema aberto para modelos de base, e o Amazon SageMaker é um componente vital que nos ajuda a escalar nossa arquitetura e acelerar nossa entrada no mercado. Usando o novo recurso de inferência do SageMaker, pudemos colocar todos os nossos modelos em um único endpoint do SageMaker, que gerenciou automaticamente toda a alocação de recursos e o compartilhamento dos recursos de computação, acelerando a performance e reduzindo o custo de implantação dos modelos de base.”

Bhavesh Doshi, vice-presidente de engenharia da Salesforce.
 

Freddy's

Bain & Co

“Um dos maiores desafios da Aura é extrair insights significativos de um amplo conjunto de dados profissionais não estruturados. Ao empregar grandes modelos de linguagem por meio do Amazon SageMaker Canvas, automatizamos o processo de extração de dados, transformando a maneira como as empresas avaliam as competências da força de trabalho e as estruturas organizacionais. Essa abordagem não apenas nos ajudou a escalar a análise de dados, mas também contornou as limitações dos métodos tradicionais de análise de dados, como a correspondência de palavras-chave. Usando os novos recursos de preparação de dados e LLM do SageMaker Canvas, a Aura é capaz de pontuar e avaliar quantitativamente as empresas quanto à eficácia de suas estruturas organizacionais, habilidades de força de trabalho e performance em termos de resultados financeiros."

Purna Doddapaneni, CTO do Founder's Studio e sócio da Bain & Co.

Hugging Face

Wix

“A inferência do Amazon SageMaker nos ajuda a implantar modelos em várias zonas de disponibilidade e a executar previsões em grande escala, online ou em lote.”

Itamar Keller, líder da equipe de pesquisa e desenvolvimento da Wix

Hugging Face

Qred

“Com uma plataforma centralizada usando o Amazon SageMaker, a conformidade é mais simples. É mais simples adicionar dados confidenciais quando eles estão centralizados e protegidos.”

Lezgin Bakircioglu, diretor de tecnologia da Qred

Stability AI

Stability AI

“Como empresa líder em IA generativa de código aberto, nosso objetivo é maximizar a acessibilidade da IA moderna. Estamos construindo modelos básicos com dezenas de bilhões de parâmetros, que exigem uma infraestrutura capaz de escalar a performance otimizada dos treinamentos. Com a infraestrutura gerenciada e as bibliotecas de otimização do SageMaker HyperPod, somos capazes de reduzir o tempo e os custos de treinamento em mais de 50%. Isso torna nosso treinamento de modelos mais resiliente e eficiente para criar modelos de última geração com mais rapidez.”

Emad Mostaque, fundador e CEO da Stability AI

iFood
“Na iFood, nos esforçamos para encantar nossos clientes por meio de nossos serviços usando tecnologias como o machine learning (ML). Criar um fluxo de trabalho completo e contínuo para desenvolver, treinar e implantar modelos tem sido uma parte essencial de nossa jornada para escalar o ML. O Amazon SageMaker Pipelines nos ajuda a criar rapidamente vários fluxos de trabalho de ML escaláveis e automatizados, e facilita implantar e gerenciar nossos modelos de maneira efetiva. O SageMaker Pipelines nos permite alcançar maior eficiência em nosso ciclo de desenvolvimento. Continuamos enfatizando nossa liderança usando IA/ML para fornecer níveis superiores de atendimento ao cliente e eficiência com todas essas novas capacidades do Amazon SageMaker.”

Sandor Caetano, diretor do departamento de ciência de dados, iFood

Care.com
“Um setor forte de cuidados, no qual a oferta satisfaça a demanda, é crucial para o crescimento econômico desde cada família até o PIB de uma nação. Estamos animados com o Amazon SageMaker Pipelines, pois acreditamos que ele nos ajudará a promover um melhor ajuste de escala entre nossas equipes de ciência de dados e desenvolvimento por meio de um conjunto consistente de dados curados que podemos usar para criar pipelines escaláveis e completos de modelo de machine learning (ML) da preparação de dados até a implantação. Com as capacidades recém-anunciadas do Amazon SageMaker, podemos acelerar o desenvolvimento e a implantação de nossos modelos de ML para diferentes aplicações, ajudando nossos clientes a tomar decisões mais bem informadas por meio de recomendações mais rápidas em tempo real.”

Clemens Tummeltshammer, gerente de ciência de dados, Care.com

3M
“Usando ML, a 3M está aprimorando produtos testados e aprovados, como lixas, e promovendo inovação em vários outros espaços, inclusive na área de saúde. Conforme planejamos levar o machine learning para mais áreas da 3M, vemos um crescimento rápido na quantidade de dados e modelos, que dobra a cada ano. Estamos entusiasmados com os novos recursos do SageMaker, pois eles nos ajudarão nessa ampliação. O Amazon SageMaker Data Wrangler torna muito mais fácil preparar dados para treinamento de modelos, e o Amazon SageMaker Feature Store eliminará a necessidade de criar e recriar as mesmas características de modelos várias vezes. Por fim, o Amazon SageMaker Pipelines nos ajudará a automatizar a preparação de dados, a criação de modelos e a implantação de modelos em um fluxo de trabalho completo, permitindo acelerar o tempo de colocação no mercado para nossos modelos. Nossos pesquisadores estão ansiosos para aproveitar a nova velocidade da ciência na 3M.”

David Frazee, diretor técnico - 3M Corporate Systems Research Lab

“Com o Amazon SageMaker JumpStart, conseguimos experimentar vários modelos básicos, selecionar aqueles que melhor atendiam às nossas necessidades na área da saúde e lançar rapidamente aplicações de ML usando a implantação de modelos do SageMaker em conformidade com a HIPAA. Isso nos permitiu melhorar a velocidade e a escala do processo de entrada de dados para receitas e atendimento ao cliente.”

Alexandre Alves Engenheiro principal, Amazon Pharmacy

Canva
“Na Canva, nossa missão é capacitar o mundo em design e facilitar para que qualquer pessoa crie algo bonito em qualquer dispositivo. Com a IA generativa, estamos ajudando os usuários a dar vida às suas ideias com o mínimo de conflito possível. Graças ao SageMaker JumpStart, podemos capacitar nossas equipes para começar a usar a IA generativa e testar vários modelos básicos. Em nosso hackathon global, os Canvanautas conseguiram implantar facilmente uma grande variedade de modelos básicos e realizar seus projetos. Foi uma parte fundamental do sucesso do nosso hackathon.”

Nic Wittison, líder de engenharia de produtos de IA da Canva

Dovetail
“Na Dovetail, estamos ajudando as organizações a melhorar a qualidade dos seus produtos e serviços capacitando-as para entender melhor seus clientes. Com o Amazon SageMaker JumpStart, podemos acessar, testar e implantar facilmente modelos básicos de ponta. Usamos o AI21 Jurassic-2 Mid para permitir um resumo aprimorado e conseguimos integrá-lo à nossa aplicação SaaS em semanas, em vez de levar meses para implementá-lo. Nossos clientes agora podem extrair e entender com eficiência os insights dos seus dados, mantendo a privacidade dos dados e a garantia de segurança.”

Chris Manouvrier, gerente de arquitetura corporativa, Dovetail

Lexitas
“Nossos clientes têm milhares de documentos legais e o processo de análise desses documentos é tedioso e demorado. Muitas vezes, não há uma maneira de obter respostas rapidamente, como por exemplo, entender quem fez uma pergunta em um depoimento. Agora, com o Amazon SageMaker JumpStart, podemos acessar modelos básicos de última geração para potencializar nossos produtos, possibilitando aos clientes abordar uma variedade de casos de uso, como detecção de contradições e pesquisa semântica, em milhares de documentos ao mesmo tempo. Agora, os advogados podem aproveitar as transcrições anteriores, preparando-se para eventos futuros e mantendo as rígidas necessidades de segurança e conformidade.”

Jason Primuth, diretor de inovação da Lexitas

Tyson
”Na Tyson Foods, continuamos a buscar novas maneiras de usar machine learning (ML) em nosso processo de produção para aumentar a produtividade. Usamos modelos de classificação de imagem para identificar produtos na linha de produção que exigem rótulos de embalagem. No entanto, os modelos de classificação de imagem precisam estar sempre sendo retreinados com novas imagens de campo. O Amazon SageMaker JumpStart permite que nossos cientistas de dados compartilhem modelos de ML com os engenheiros de suporte para que eles possam treinar os modelos com novos dados sem precisar programarem. Isso acelera o tempo de introdução no mercado de soluções de ML, promove melhorias contínuas e aumenta a produtividade.”

Rahul Damineni, cientista de dados especialista, Tyson Foods

Automatização da missão
“Graças ao Amazon SageMaker JumpStart, podemos lançar soluções de ML em questão de dias para atender às necessidades de previsão de machine learning de forma mais rápida e confiável.”

Alex Panait, CEO, Mission Automate

Mycase
“Graças ao Amazon SageMaker JumpStart, podemos ter melhores pontos de partida, o que facilita a implantação de uma solução ML para nossos próprios casos de uso em 4-6 semanas ao invés de 3-4 meses.”

Gus Nguyen, engenheiro de software, MyCase

Pivotree
“Com o Amazon SageMaker JumpStart, podemos construir aplicações ML como detecção automática de anomalias ou classificação de objetos mais rápido e lançar soluções da prova de conceito à produção em dias.”

Milos Hanzel, arquiteto de plataformas, Pivotree  

Bundesliga
O Bundesliga Match Facts, desenvolvido pela AWS, oferece uma experiência mais envolvente aos torcedores durante as partidas de futebol para os fãs da Bundesliga em todo o mundo. Com o Amazon SageMaker Clarify, a Bundesliga agora pode explicar interativamente quais são alguns dos principais componentes subjacentes para determinar o que levou o modelo de ML a prever um determinado valor de x Gols. Conhecer as respectivas atribuições de recursos e explicar os resultados ajuda na depuração do modelo e aumenta a confiança nos algoritmos de ML, o que resulta em previsões de qualidade superior.
 
“O Amazon SageMaker Clarify integra-se perfeitamente com o resto da plataforma digital Bundesliga Match Facts e é uma parte fundamental de nossa estratégia de longo prazo de padronizar nossos fluxos de trabalho de ML no Amazon SageMaker. Ao usar as tecnologias inovadoras da AWS, como machine learning, para fornecer insights mais aprofundados e fornecer aos fãs uma melhor compreensão das decisões de fração de segundo feitas em campo, o Bundesliga Match Facts permite que os expectadores obtenham insights mais profundos sobre as principais decisões em cada partida."

Andreas Heyden,Vice-presidente executivo de inovações digitais, DFL Group

“Com o Amazon SageMaker JumpStart, o Slack pode acessar modelos de base de última geração para potencializar a IA do Slack e, ao mesmo tempo, priorizar a segurança e a privacidade. Os clientes do Slack agora podem pesquisar de forma mais inteligente, resumir as conversas instantaneamente e ser mais produtivos.”

Jackie Rocca, vice-presidente de produtos, IA no Slack

capcom
CAPCOM é uma empresa de jogos japonesa famosa por títulos de jogos como a série Monster Hunter e Street Fighter. Para manter a satisfação dos usuários, a CAPCOM precisava garantir a qualidade do jogo e identificar possíveis churners e suas tendências.
 
“A combinação do AutoGluon com o Amazon SageMaker Clarify permite que nosso modelo de rotatividade dos clientes preveja a rotatividade dos clientes com 94% de precisão. O SageMaker Clarify nos ajuda a entender o comportamento do modelo, fornecendo explicabilidade por meio de valores SHAP. Com o SageMaker Clarify, reduzimos o custo de computação dos valores SHAP em até 50%, se comparado com um cálculo local. A solução conjunta nos capacita a entender melhor o modelo e a melhorar a satisfação do cliente com maior taxa de precisão e economia significativa de custos.”

Masahiro Takamoto, diretor do departamento de dados, CAPCOM

DOMO
Domo é a nuvem de negócios, transformando a maneira como os negócios são gerenciados ao fornecer BI moderno para todos. Com a Domo, processos críticos que demoravam semanas, meses ou mais agora podem ser executados instantaneamente, em minutos ou segundos, em uma escala inacreditável.
 
“A Domo oferece um conjunto escalável de soluções de ciência de dados que qualquer pessoa em uma organização conseguirá usar e entender. Com o Clarify, nossos clientes recebem informações importantes sobre como seus modelos de IA estão realizando previsões. A combinação do Clarify com a Domo auxilia no aumento da velocidade e inteligência da IA para nossos clientes, colocando o poder da IA nas mãos de todos em seus negócios e ecossistemas.”

Ben Ainscough, Ph.D., diretor do departamento de IA e de ciência de dados, Domo

Varo

O Varo Bank é um banco digital com sede nos Estados Unidos que utiliza IA/ML como uma ajuda para tomar decisões rápidas e baseadas em risco a fim de fornecer produtos e serviços inovadores aos clientes.

“O Varo tem um forte compromisso com a explicabilidade e transparência de nossos modelos de ML e estamos ansiosos para ver os resultados do Amazon SageMaker Clarify no avanço desses esforços.”

Sachin Shetty, diretor do departamento de ciência de dados, Varo Money

Aurora

A LG AI Research visa liderar a próxima era da IA usando o Amazon SageMaker para treinar e implantar modelos de ML com mais rapidez.

“Recentemente, estreamos o Tilda, o artista de IA desenvolvido pela EXAONE, um sistema de IA supergigante que pode processar 250 milhões de conjuntos de dados de pares de imagem e texto de alta definição. A IA multimodal permite que o Tilda crie uma nova imagem por conta própria, com sua capacidade de explorar além da linguagem que percebe. O Amazon SageMaker foi essencial no desenvolvimento do EXAONE, devido às suas capacidades de escalabilidade e treinamento distribuído. Especificamente, devido à computação massiva necessária para treinar essa IA supergigante, o processamento paralelo eficiente é muito importante. Também precisávamos gerenciar continuamente dados em grande escala e ser flexíveis para responder aos dados recém-adquiridos. Usando o treinamento de modelos e as bibliotecas de treinamento distribuídas do Amazon SageMaker, otimizamos o treinamento distribuído e treinamos o modelo 59% mais rápido, sem grandes modificações no nosso código de treinamento.”

Seung Hwan Kim, vice-presidente e líder da Vision Lab, LG AI Research

Aurora
“Na AI21 Labs, ajudamos empresas e desenvolvedores a usar modelos de linguagem de ponta para remodelar a forma como seus usuários interagem com textos, sem a necessidade de experiência em PNL. Nossa plataforma de desenvolvedores, o AI21 Studio, fornece acesso à geração de texto, resumo inteligente e até mesmo geração de código, tudo com base em nossa família de grandes modelos de linguagem. Nosso modelo Jurassic-Grande (TM) recém-treinado com 17 bilhões de parâmetros foi treinado usando o Amazon SageMaker. O Amazon SageMaker tornou o processo de treinamento de modelos mais fácil e eficiente e funcionou perfeitamente com a biblioteca DeepSpeed. Como resultado, conseguimos escalar facilmente os trabalhos de treinamento distribuídos para centenas de GPUs Nvidia A100. O modelo Grande oferece qualidade de geração de texto equivalente ao nosso modelo muito maior de 178 bilhões de parâmetros, com um custo de inferência muito menor. Como resultado, nossos clientes que implantam o Jurassic-Grande em produção são capazes de atender milhões de usuários em tempo real diariamente e aproveitar a vantagem da economia aprimorada da unidade sem sacrificar a experiência dos usuários.” 

Dan Padnos, vice-presidente de arquitetura da AI21 Labs

Aurora

Com a ajuda do Amazon SageMaker e da biblioteca paralela de dados distribuídos (SMDDP) do Amazon SageMaker, a Torc.ai, líder em veículos autônomos desde 2005, está comercializando caminhões autônomos para transporte seguro, sustentado e de longa distância no setor de cargas.

“Minha equipe agora é capaz de executar facilmente trabalhos de treinamento distribuído em grande escala usando o treinamento de modelos do Amazon SageMaker e a biblioteca paralela de dados distribuídos (SMDDP) do Amazon SageMaker, envolvendo terabytes de dados de treinamento e modelos com milhões de parâmetros. O treinamento de modelos distribuído do Amazon SageMaker e o SMDDP nos ajudaram a escalar sem problemas sem precisar gerenciar a infraestrutura de treinamento. Isso reduziu nosso tempo de treinamento de modelos de vários dias para algumas horas, permitindo que reduzíssemos nosso ciclo de design e trouxéssemos novos recursos de veículos autônomos para nossa frota mais rápido do que nunca.”

Derek Johnson, vice-presidente de engenharia da Torc.ai

Aurora

A Sophos, líder mundial em soluções e serviços de segurança cibernética de próxima geração, usa o Amazon SageMaker para treinar seus modelos de ML com mais eficiência.

“Nossa poderosa tecnologia detecta e elimina arquivos habilmente misturados com malware. No entanto, empregar modelos XGBoost para processar conjuntos de dados de vários terabytes era extremamente demorado e, às vezes, simplesmente não era possível com espaço de memória limitado. Com o treinamento distribuído do Amazon SageMaker, podemos treinar com sucesso um modelo leve XGBoost que é muito menor em disco (até 25 vezes menor) e em memória (até cinco vezes menor) do que seu antecessor. Usando o ajuste automático de modelos do Amazon SageMaker e o treinamento distribuído em instâncias Spot, podemos modificar e retreinar modelos de maneira rápida e eficiente sem ajustar a infraestrutura de treinamento subjacente necessária para aumentar a escala horizontalmente em conjuntos de dados tão grandes.”

Konstantin Berlin, diretor de inteligência artificial da Sophos

Leia o blog »

Aurora
“O machine learning e a simulação avançados da Aurora em grande escala são fundamentais para o desenvolvimento de nossa tecnologia com segurança e rapidez, e a AWS oferece a alta performance de que precisamos para manter nosso progresso. Com sua escala praticamente ilimitada, a AWS oferece suporte a milhões de testes virtuais para validar os recursos do Aurora Driver para que ele possa navegar com segurança pelos inúmeros casos extremos de condução no mundo real." 

Chris Urmson, CEO da Aurora

Assista ao vídeo »

Hyundai
“Usamos modelos de visão computacional para fazer a segmentação de cenas, o que é importante para a compreensão das cenas. Costumava demorar 57 minutos para treinar o modelo para um epoch, o que nos atrasava demais. Usando a biblioteca de paralelismo de dados do Amazon SageMaker e com a ajuda do Amazon ML Solutions Lab, pudemos treinar em 6 minutos com código de treinamento otimizado em instâncias 5ml.p3.16xlarge. Com a redução de 10 vezes no tempo de treinamento, podemos passar mais tempo preparando dados durante o ciclo de desenvolvimento." 

Jinwook Choi, engenheiro de pesquisa sênior da Hyundai Motor Company

Leia o blog »

Latent Space
“Estamos construindo na Latent Space um mecanismo de jogo com renderização neural em que qualquer pessoa pode criar com a velocidade do pensamento. Impulsionados pelos avanços na modelagem de linguagem, estamos trabalhando para incorporar a compreensão semântica de texto e imagens para determinar o que gerar. Nosso foco atual é utilizar a recuperação de informações para aumentar o treinamento de modelos em grande escala, para o qual temos canais sofisticados de ML. Essa configuração apresenta um desafio além do treinamento distribuído, pois há várias fontes de dados e modelos sendo treinados ao mesmo tempo. Dessa forma, estamos aproveitando os novos recursos de treinamento distribuído no Amazon SageMaker para escalar eficientemente o treinamento para grandes modelos generativos.”

Sarah Jane Hong, cofundadora/diretora de ciência da Latent Space

Leia o blog »

musixmatch
“A Musixmatch usa o Amazon SageMaker para criar modelos de processamento de linguagem natural (PLN) e processamento de áudio e está experimentando a Hugging Face com o Amazon SageMaker. Escolhemos o Amazon SageMaker porque ele permite que os cientistas de dados criem, treinem e ajustem modelos de maneira iterativa com rapidez, sem precisar se preocupar com o gerenciamento da infraestrutura subjacente, o que significa que os cientistas de dados podem trabalhar de maneira mais rápida e independente. À medida que a empresa cresceu, também aumentaram nossos requisitos para treinar e ajustar modelos de PNL maiores e mais complexos. Estamos sempre procurando maneiras de acelerar o tempo de treinamento e, ao mesmo tempo, reduzir os custos de treinamento, e é por isso que estamos entusiasmados com o Amazon SageMaker Training Compiler. O SageMaker Training Compiler fornece maneiras mais eficientes de usar GPUs durante o processo de treinamento e, com a integração perfeita entre o SageMaker Training Compiler, o PyTorch e bibliotecas de alto nível, como a Hugging Face, vimos uma melhoria significativa no tempo de treinamento de nossos modelos baseados em transformadores, passando de semanas para dias, além de custos de treinamento mais baixos.”

Loreto Parisi, diretor de engenharia de inteligência artificial da Musixmatch

AT&T

A AT&T Cybersecurity aprimorou a detecção de ameaças, exigindo previsões quase em tempo real usando endpoints multimodelos do Amazon SageMaker.

“Os endpoints multimodelos do Amazon SageMaker não são apenas econômicos, como também nos proporcionam um pequeno aumento de performance com a simplificação da forma como armazenamos nossos modelos.”

Matthew Schneid, arquiteto-chefe da AT&T

Leia mais »
Forethought

A Forethought Technologies, fornecedora de soluções de IA generativa para atendimento ao cliente, reduziu os custos em até 80% usando o Amazon SageMaker.

“Ao migrar para endpoints multimodelos do Amazon SageMaker, reduzimos nossos custos em até 66%, ao mesmo tempo em que proporcionamos melhor latência e melhores tempos de resposta para os clientes.”

Jad Chamoun, diretor de engenharia central da Forethought Technologies

Leia mais »
Bazaarvoice

O Bazaarvoice reduziu os custos de inferência de ML em 82% usando o SageMaker Serverless Inference.

“Ao usar o SageMaker Serverless Inference, podemos fazer ML com eficiência em grande escala, lançando rapidamente vários modelos a um custo razoável e com baixa sobrecarga operacional.”

Lou Kratz, engenheiro de pesquisa principal – Bazaarvoice

Leia mais »
Tapjoy

ATapjoy usa o Amazon SageMaker para implantar modelos de ML em dias em vez de meses.

“Levávamos de três a seis meses para treinar, criar e implantar um modelo. Agora, com o SageMaker, podemos fazer isso em uma semana, talvez até menos.”

Nick Reffitt, vice-presidente de ciência de dados e engenharia da Tapjoy

Leia mais »
Zendesk

A Zendesk hospedou milhares de modelos de ML em endpoints multimodais (MME) do Amazon SageMaker para seu atributo de Macros sugeridas e obteve uma economia de 90% em inferência em comparação com endpoints dedicados.

“Implantamos milhares de modelos de ML, personalizados para nossos mais de 100 mil clientes, usando endpoints multimodelos (MME) do Amazon SageMaker. Com o SageMaker MME, criamos um recurso de inferência compatível com SaaS e multilocatário para hospedar vários modelos por endpoint, reduzindo o custo de inferência em 90% em comparação com endpoints dedicados.”

Chris Hausler, diretor de IA/ML da Zendesk

Leia mais »

Amazon Pharmacy

“Com o Amazon SageMaker JumpStart, conseguimos experimentar vários modelos básicos, selecionar aqueles que melhor atendiam às nossas necessidades na área da saúde e lançar rapidamente aplicações de ML usando a implantação de modelos do SageMaker em conformidade com a HIPAA. Isso nos permitiu melhorar a velocidade e a escala do processo de entrada de dados para receitas e atendimento ao cliente.”

Alexandre Alves Engenheiro principal, Amazon Pharmacy

Intuit

"Com o Amazon SageMaker, podemos acelerar nossas iniciativas de inteligência artificial em grande escala, criando e implantando algoritmos na plataforma. Criaremos e implantaremos algoritmos inovadores de machine learning e IA em grande escala nessa plataforma para resolver problemas complexos dos clientes e promover o seu sucesso."

Ashok Srivastava, Diretor da equipe de dados - Intuit

GE Healthcare

Aproveitando dados e análise encontrados em hardware, software e biotecnologia, a GE Healthcare está transformando a área de saúde ao proporcionar melhores resultados para profissionais de saúde e pacientes. 

“O Amazon SageMaker permite que a GE Healthcare acesse ferramentas e serviços poderosos de inteligência artificial para melhorar o atendimento ao paciente. A escalabilidade do Amazon SageMaker e sua capacidade de integração com os serviços nativos da AWS agregam enorme valor para nós. Estamos ansiosos para ver como nossa colaboração contínua entre a GE Health Cloud e o Amazon SageMaker gerará melhores resultados para nossos parceiros profissionais de saúde e proporcionará um atendimento otimizado ao paciente.”

Sharath Pasupunuti, Líder de engenharia de IA - GE Healthcare

ADP, Inc.

A ADP é uma empresa líder global em tecnologia que fornece soluções de gerenciamento de capital humano (HCM). O ADP DataCloud utiliza os dados incomparáveis da força de trabalho de mais de 30 milhões de funcionários da ADP para fornecer informações acionáveis que podem ajudar os executivos a tomar decisões em tempo real para que possam gerenciar melhor os negócios.

"Manter e atrair talentos é difícil, e é por isso que continuamos aprimorando o ADP DataCloud com recursos de inteligência artificial para ajudar os empregadores a manter equipes fortes. Usamos o AWS machine learning, incluindo o Amazon SageMaker, para identificar rapidamente os padrões da força de trabalho e prever resultados antes que eles aconteçam, por exemplo, rotatividade de funcionários ou o impacto de um aumento na remuneração. Ao utilizar a AWS como nossa plataforma principal de inteligência artificial e machine learning, reduzimos o tempo para implantar modelos de machine learning de duas semanas para apenas um dia.”

Jack Berkowitz, SVP de desenvolvimento de produtos – ADP, Inc.

BASF Digital Farming

A missão da BASF Digital Farming é capacitar agricultores a tomar decisões mais inteligentes e contribuir para resolver o desafio de alimentar uma população mundial crescente, além de reduzir a pegada ambiental.

“O Amazon SageMaker e a tecnologia relacionada da AWS oferecem suporte à experimentação rápida e fornecem funcionalidades e APIs fáceis de usar que reduzem a barreira de entrada para a adoção de ML. Dessa forma, podemos rapidamente descobrir todo o potencial de valor dos casos de uso de ML.”

Dr. Christian Kerkhoff, gerente de automação de dados, BASF Digital Farming GmbH

Cerner

Cerner

A Cerner Corporation é uma empresa global de saúde e tecnologia que fornece várias soluções de tecnologia da informação para o setor da saúde (HIT), além de serviços, dispositivos e hardware.

“A Cerner tem orgulho em promover inovações de inteligência artificial e machine learning para uma enorme variedade de experiências clínicas, financeiras e operacionais. Com os novos recursos criados pelo ecossistema de machine learning e o processamento de linguagem natural da Cerner e com a parceria de colaboração com a AWS, estamos acelerando a inovação em escala para todos os nossos clientes. O Amazon SageMaker é um componente importante para ajudar a Cerner a se alinhar a nosso intuito de oferecer valor aos clientes por meio de IA/ML. Além disso, o Amazon SageMaker garante à Cerner a capacidade de utilizar diferentes frameworks, como TensorFlow e PyTorch, e integrá-los a vários produtos da AWS.”

Sasanka Are, PhD, vice-presidente - Cerner

600x400-dow-jones_logo.jpg

Dow Jones

A Dow Jones & Co. é um fornecedor global de notícias e informações de negócios, que disponibiliza conteúdo para clientes e empresas por meio de jornais, sites, aplicativos móveis, vídeo, newsletters, revistas, bancos de dados proprietários, conferências e rádio.

"Como a Dow Jones continua a dar ênfase à integração do machine learning aos nossos produtos e serviços, a AWS tem sido um grande parceiro. Antes da nossa recente Machine Learning Hackathon, a equipe da AWS disponibilizou treinamento aos participantes no Amazon SageMaker e no Amazon Rekognition, assim como ofereceu suporte um dia inteiro a todas as equipes. O resultado foi que nossas equipes desenvolveram excelentes ideias relacionadas a como podemos aplicar o machine learning. Muitas dessas ideias continuarão a ser desenvolvidas por nós na AWS. O evento foi um grande sucesso e um exemplo de como deve ser uma excelente parceria."

Ramin Beheshti, Diretor de produtos e tecnologia do grupo - Dow Jones

Advanced Microgrid Solutions

Advanced Microgrid Solutions

A Advanced Microgrid Solutions (AMS) é uma empresa de plataforma e serviços de energia que pretende acelerar a transformação global para uma economia de energia limpa, facilitando a implantação e a otimização de ativos de energia limpa. A NEM usa um mercado spot em que todas as partes fazem ofertas para consumir/fornecer energia a cada 5 minutes. Isso exige prever demandas e gerar ofertas dinâmicas em minutos, processando quantidades massivas de dados de mercado. Para resolver esse desafio, a AMS criou um modelo de aprendizagem profunda usando o TensorFlow no Amazon SageMaker. A empresa aproveitou o ajuste automático de modelos do Amazon SageMaker para descobrir os melhores parâmetros de modelo e criar seu modelo em apenas algumas semanas. Esse modelo demonstrou aprimoramentos nas previsões de mercado em todos os produtos de energia na medição de energia líquida, proporcionando eficiências significativas.

ProQuest

ProQuest

A ProQuest seleciona a maior coleção do mundo de periódicos, ebooks, fontes primárias, dissertações, notícias e vídeos e constrói soluções poderosas de fluxo de trabalho que ajudam bibliotecas adquirirem e aumentarem seus acervos. Os produtos e serviços da ProQuest são usados em bibliotecas acadêmicas, K-12, públicas, corporativas e governamentais em 150 países.

“Estamos colaborando com a AWS para construir uma experiência do usuário em vídeo mais atraente para quem frequenta bibliotecas, permitindo que as consultas retornem resultados mais relevantes. Junto do AWS ML Solutions Lab, testamos diferentes algoritmos que usam o Amazon SageMaker, aprimoramos os modelos usando a otimização de hiperparâmetros e automatizamos a implementação de modelos de machine learning (ML). Estamos satisfeitos com os resultados até agora e pensando em utilizar tecnologias de ML com outros produtos.”

Allan Lu, vice-presidente de ferramentas de pesquisa, serviços e plataformas - ProQuest

Celgene

A Celgene é uma empresa biofarmacêutica global comprometida em melhorar a vida de pacientes no mundo todo. O foco da empresa está na descoberta, no desenvolvimento e na comercialização de terapias inovadoras para pacientes com câncer, doenças imunoinflamatórias e outras necessidades médicas não atendidas.

"Na Celgene, nossa visão é entregar tratamentos verdadeiramente inovadores e revolucionários para melhorar a vida de pacientes no mundo todo. Com o Amazon SageMaker e o Apache MXNet, a criação e o treinamento de modelos de aprendizagem profunda para desenvolver soluções e processos tem sido mais rápido e fácil que nunca, e agora podemos direcionar facilmente nossos esforços para descobrir tratamentos e produzir novos medicamentos. O uso do SageMaker e de instâncias P3 do Amazon EC2 acelerou nosso tempo de treinamento dos modelos e nossa produtividade, possibilitando que a equipe se concentre em pesquisas e descobertas revolucionárias."

Lance Smith, Diretor - Celgene

Atlas Van Lines

A Atlas Van Lines é a segunda maior linha de vans na América do Norte, fundada em 1948 por um grupo de empreendedores do setor de mudanças e armazenamento. A empresa foi desenvolvida com o objetivo único de fazer mudanças de costa a costa, além de aderir à regra de ouro do negócio. Além de ter uma presença sólida, a Atlas exibe requisitos rigorosos de qualidade de agentes que superam os do setor.

Durante o pico nas temporadas de mudanças, a rede de agentes da Atlas trabalha em conjunto entre mercados para atender à demanda dos clientes. Tradicionalmente, a empresa previa capacidade de modo manual e bastante trabalhoso. Ela contava com a sabedoria e o instinto de funcionários com vários anos de experiência. A Atlas encaminhou dados históricos de 2011 e desejava encontrar uma maneira de ajustar de modo dinâmico a capacidade e o preço com base nas demandas futuras do mercado.

A Atlas trabalhou com a Pariveda Solutions, um parceiro de consultoria Premier do APN, para ajudar a tornar possível um gerenciamento proativo de preço e capacidade no setor de mudanças de longa distância. A Pariveda preparou os dados, desenvolveu e avaliou o modelo de Machine Learning, e ajustou a performance. Eles usaram o Amazon SageMaker para treinar e otimizar o modelo e, depois, o exportaram usando a natureza modular do Amazon SageMaker para executá-lo usando o Amazon EC2.

Edmunds

Edmunds

O Edmunds.com é um site de compras de automóveis que oferece informações detalhadas e atualizadas constantemente sobre veículos para 20 milhões de visitantes mensais.

"Temos uma iniciativa estratégica para disponibilizar o machine learning a todos nossos engenheiros. O Amazon SageMaker é essencial para nos ajudar a atingir esse objetivo, facilitando para nossos engenheiros a criação, o treinamento e a implantação de modelos de machine learning e algoritmos em grande escala. Estamos entusiasmados para ver como o Edmunds usará o SageMaker para inovar novas soluções na empresa para nossos clientes."

Stephen Felisan, Diretor de TI - Edmunds.com

Hotels.com

Hotels.com

A Hotels.com é uma marca líder global do setor de hotelaria, com operações em 90 sites localizados para 41 idiomas.

"Na Hotels.com, estamos sempre interessados em aumentar a agilidade, usar as mais recentes tecnologias e promover a inovação. Os algoritmos otimizados de treinamento distribuído e os recursos incorporados de hiperparâmetros do Amazon SageMaker devem permitir que a equipe crie rapidamente modelos mais precisos com base em nossos maiores conjuntos de dados, reduzindo o tempo considerável necessário para implantar um modelo em produção. Basta uma chamada de API. O Amazon SageMaker reduzirá substancialmente a complexidade do machine learning, agilizando a criação de uma melhor experiência para os nossos clientes."

Matt Fryer, Vice-presidente e Diretor de ciência de dados - Hotels.com e Expedia Affiliate Network

Formosa Plastics

A Formosa Plastics Corporation é uma empresa em expansão verticalmente integrada, que fornece resinas plásticas e petroquímicos. A Formosa Plastics oferece uma linha completa de resinas de cloreto de polivinilo, polietileno e polipropileno, soda cáustica e outros petroquímicos que entregam a consistência, a performance e a qualidade que os clientes exigem.

"A Formosa Plastics é uma das maiores empresas petroquímicas de Taiwan e um dos maiores fabricantes de plástico do mundo. Nós decidimos explorar o machine learning para permitir uma detecção mais precisa de defeitos e reduzir custos de mão de obra, e para nos ajudar escolhemos a AWS como nosso provedor de nuvem preferido. O laboratório de soluções de ML da AWS trabalhou conosco em todas as etapas do processo, desde um workshop de descoberta para definir os casos de uso de negócios para a criação e seleção de modelos de ML apropriados até a implantação real. Usando o Amazon SageMaker, a solução de machine learning reduziu pela metade o tempo dos nossos funcionários no trabalho de inspeção manual. Com a ajuda do laboratório de soluções, nós mesmos agora podemos otimizar o modelo do SageMaker, seguindo em frente conforme as condições mudam."

Bill Lee, vice-presidente assistente - Formosa Plastics Corporation

Voodoo

A Voodoo é uma empresa líder em jogos para dispositivos móveis, com mais de 2 bilhões de downloads de jogos e mais de 400 milhões de usuários ativos mensais (MAU). Ela executa a própria plataforma de publicidade e está usando o machine learning para melhorar a precisão e a qualidade dos lances de anúncio que são mostrados aos usuários dela.

"Na Voodoo, precisamos manter ativamente envolvida uma base de milhões de jogadores que continua crescendo. Ao padronizar nossos workloads de machine learning e inteligência artificial na AWS, podemos iterar no ritmo e na escala necessários para continuar expandindo nossos negócios e envolvendo nossos jogadores. Usando o Amazon SageMaker, podemos decidir em tempo real qual anúncio deve ser exibido aos nossos jogadores e invocar nosso endpoint mais de 100 milhões de vezes por mais de 30 milhões de usuários diariamente, representando quase um bilhão de previsões por dia. Com o AWS machine learning, conseguimos colocar um modelo preciso em produção em menos de uma semana, com suporte de uma equipe pequena, e pudemos desenvolver continuamente sobre ele conforme o crescimento de nossa equipe e de nossos negócios."

Aymeric Roffé, diretor de tecnologia – Voodoo

Regit

A Regit (antiga Motoring.co.uk) é uma empresa de tecnologia automotiva e o principal serviço online para motoristas do RU. Ela disponibiliza serviços de gerenciamento digital de carros com base na matrícula do automóvel (placa do carro), além de enviar aos motoristas lembretes informativos sobre assuntos relacionados, como imposto do Ministry of Transport (MOT – Ministério dos transportes), seguros e revogações.

A Regit trabalhou com a Peak Business Insight, um parceiro de consultoria Advanced do APN, para aplicar "modelos categóricos de Machine Learning" que processem dados de categoria e variáveis simultaneamente para oferecer previsões sobre a probabilidade de os usuários trocarem de carro, o que resulta em vendas para a Regit.

A Peak usou serviços da AWS, como o Amazon SageMaker, para saída de dados, modelagem e consumo em tempo real. O Amazon SageMaker processa 5.000 solicitações de API por dia para a Regit, ajustando a escala perfeitamente e fazendo acertos para cumprir requisitos relevantes de dados, além de gerenciar a entrega de resultados de avaliação de leads. Enquanto isso, as instâncias do Amazon Redshift e do Amazon Elastic Compute Cloud (Amazon EC2) otimizam de modo eficiente e contínuo a performance e os resultados do modelo. Com a Peak, a Regit pôde prever quais de seus 2,5 milhões de usuários trocarão de carros e quando isso acontecerá. Isso significa que eles podem atender os clientes de modo mais personalizado e direcionado, aumentando as receitas de call center em mais de 25%.

Realtor.com

Realtor.com

A rede Move, Inc., que inclui a realtor.com®, a Doorsteps® e a Moving.com™, disponibiliza ferramentas, especialização profissional e informações do setor imobiliário encontradas em uma família de sites e experiências móveis para clientes e profissionais desse setor.

"Acreditamos que o Amazon SageMaker seja um complemento transformador para o conjunto de ferramentas da realtor.com®, enquanto ajudamos os clientes na jornada de obtenção da casa própria. Os fluxos de trabalho de machine learning, que têm um histórico de serem muito demorados, como o treinamento e a otimização de modelos, podem ser realizados com maior eficiência e por um conjunto mais amplo de desenvolvedores, o que capacita nossos cientistas e analistas de dados a se concentrarem na criação da mais avançada experiência para nossos usuários."

Vineet Singh, Diretor da equipe de dados e Vice-presidente sênior - Move, Inc.

Grammarly

Grammarly

Todos os dias, os algoritmos do Grammarly ajudam milhões de pessoas a se comunicarem de modo mais eficiente ao oferecer assistência na elaboração de texto em várias plataformas em dispositivos, por meio de uma combinação de tecnologias de machine learning avançado e processamento de linguagem natural.

"O Amazon SageMaker possibilita para nós o desenvolvimento de modelos do TensorFlow em um ambiente de treinamento distribuído. Nossos fluxos de trabalho também se integram ao Amazon EMR para pré-processamento. Dessa forma podemos obter nossos dados do Amazon S3, filtrados com o EMR e o Spark usando o notebook Jupyter, e treinar no Amazon SageMaker com o mesmo notebook. O SageMaker também e flexível para nossos diferentes requisitos de produção. Podemos executar inferências no próprio SageMaker ou, se precisarmos apenas do modelo, fazemos download dele por meio do S3 e executamos inferências de implementações de dispositivos móveis para clientes iOS e Android."

Stanislav Levental, Gerente de tecnologia - Grammarly

Slice Labs

A Slice Labs, com sede em Nova York e operações em todo o mundo, é o primeiro provedor de plataforma na nuvem de seguros sob demanda. A Slice atende ao mercado B2C com ofertas de seguro sob demanda individuais, bem como ao mercado B2B permitindo que as empresas a criarem produtos de seguro digital intuitivos.

"Na Slice, estamos profundamente cientes da natureza de constante mudança das necessidades de seguro dos clientes, e selecionamos a AWS como nossa plataforma de acesso à nuvem devido à ampla faixa de serviços, flexibilidade e forte reputação entre as seguradoras. Usamos vários serviços da AWS para dar suporte a nosso negócio, incluindo o AWS Machine Learning para ajudar a conectar os clientes às melhores opções de seguro de acordo com as necessidades deles. Em nosso trabalho com seguradoras e empresas de tecnologia que buscam criar e lançar produtos de seguro inteligentes, vimos enormes economias de custo e benefícios de produtividade com a AWS. Por exemplo, reduzimos o tempo de compras em 98%, de 47 dias para 1 dia. Estamos empolgados em continuar nos expandindo geograficamente e em termos de nosso uso da nuvem com a AWS."

Philippe Lafreniere, diretor de crescimento - Slice Labs

DigitalGlobe

DigitalGlobe

“Como líder global no fornecimento de imagens de alta resolução, dados e análises da Terra, a DigitalGlobe trabalha com grandes quantidades de dados todos os dias.

"Como líder global no fornecimento de imagens de alta resolução, dados e análises da Terra, a DigitalGlobe trabalha com grandes quantidades de dados todos os dias. A DigitalGlobe facilita a pesquisa, o acesso e a execução de computação em toda nossa biblioteca de imagens de 100 PB, armazenada na Nuvem AWS, para aplicar aprendizado profundo às imagens de satélite. Pretendemos usar o Amazon SageMaker para treinar modelos com petabytes de conjuntos de dados de imagens de observação da Terra, usando blocos de notas Jupyter hospedados. Dessa forma, os usuários da Geospatial Big Data Platform (GBDX) da DigitalGlobe podem simplesmente pressionar um botão, criar um modelo e implantá-lo em grande escala em um ambiente distribuído escalável.”

Dr. Walter Scott, Diretor de tecnologia da Maxar Technologies e fundador da DigitalGlobe

Intercom

Intercom

Os primeiros produtos de mensagens da Intercom integram-se perfeitamente a outros sites e apps para dispositivos móveis da empresa para ajudá-la a adquirir, envolver e dar suporte a clientes. A empresa foi fundada em 2011 e conta com escritórios em São Francisco, Londres, Chicago e Dublin.

"Na Intercom, temos uma equipe cada vez maior de cientistas de dados e engenheiros orientados a dados, e frequentemente queremos iterar rapidamente e explorar novas soluções para produtos orientados a dados. Antes do Amazon SageMaker, tentamos várias outras opções para criar esses produtos, mas cada um tinha seus desafios: o compartilhamento de código era difícil, os testes em grandes conjuntos de dados eram lentos e o provisionamento e o gerenciamento de hardware por nossa conta eram problemáticos. Quando o SageMaker chegou, todos esses problemas foram resolvidos. Nós o usamos principalmente para desenvolver algoritmos para nossas plataformas de pesquisa e recursos de machine learning. Além disso, acreditamos que os Jupyter Notebooks hospedados do SageMaker nos permitem criar e iterar rapidamente. Essencialmente, o fato de o SageMaker ser um serviço gerenciado permite que minha equipe se concentre na tarefa atual. O Amazon SageMaker é um serviço extremamente valioso para a Intercom e estamos empolgados em continuar a usá-lo cada vez mais à medida que nossa empresa cresce."

Kevin McNally, cientista de dados sênior, Machine Learning - Intercom

Kinect Energy Group

Kinect Energy Group

Kinect Energy Group é uma subsidiária da World Fuel Services, uma empresa da Fortune 100 que fornece serviços de assessoria sobre fornecimento de energia, bem como soluções de gerenciamento de cumprimento, transação e pagamento da distribuição para clientes do comércio e da indústria, principalmente nos setores de transporte aéreo, marítimo e terrestre. A Kinect Energy é um importante fornecedor nórdico de energia que depende dos recursos naturais de energia facilitados pelo clima de vento da região.

A empresa alavancou recentemente a introdução de vários serviços de AI e ML da AWS. Com o Amazon SageMaker, a empresa pode prever tendências climáticas futuras e com isso o preço da eletricidade nos próximos meses, facilitando o comércio de energia de longo prazo nunca visto, que representa uma abordagem pioneira na indústria.

"Nós começamos a usar o Amazon SageMaker e com a ajuda da equipe de soluções de ML e da equipe de arquitetura de soluções da AWS, fomos impulsionados com o Innovation Day e o impacto foi enorme desde então. Nós aumentamos nossa própria equipe de AI várias vezes para explorar totalmente a nova vantagem que as tecnologias da AWS oferecem. Estamos lucrando com as novas maneiras de definir preços com base no clima, o que ainda não acontecia. Decidimos “apostar tudo” na AWS, inclusive armazenar nossos dados no S3, usando o Lambda para execução e funções escalonadas além do SageMaker. E graças à parceria dedicada do laboratório de soluções de ML da AWS, agora somos autossuficientes, capazes de repetir os modelos que criamos e continuar melhorando nosso negócio.”

Andrew Stypa, principal analista de negócios - Kinect Energy Group

Frame.io

Frame.io

A Frame.io é o centro para tudo o que diz respeito ao vídeo. A líder em revisão e colaboração de vídeo, com mais de 700 mil clientes em todo o mundo, a Frame.io é onde profissionais de vídeo de todos os tipos, de autônomos a empresariais, revisam, aprovam e entregam vídeo.

"Como uma plataforma nativa da nuvem de revisão e colaboração de vídeo, acessada por usuários de todo o mundo, é nossa obrigação oferecer a melhor segurança disponível para os clientes. Com o modelo de detecção de anomalias incorporado ao Amazon SageMaker, podemos usar machine learning para identificar, detectar e bloquear rapidamente qualquer solicitação IP indesejada para garantir a segurança e a proteção contínuas da mídia de nossos clientes. Começar a usar o Amazon SageMaker, mantê-lo ao longo do tempo, escaloná-lo em nossa plataforma e ajustar nossos fluxos de trabalho específicos foram atividades simples e direta. Além disso, com a ajuda de notebooks Jupyter no SageMaker, conseguimos experimentar diversos modelos para aprimorar a precisão e a recuperação de formas que tornam a Frame.io ainda mais segura."

Abhinav Srivastava, vice-presidente e diretor de segurança da informação - Frame.io

Cookpad

Cookpad

O Cookpad é o maior serviço de compartilhamento de receitas do Japão, com cerca de 60 milhões de usuários mensais no Japão e cerca de 90 milhões de usuários mensais em todo o mundo.

"Com o aumento na demanda por um uso mais fácil do serviço de receitas do Cookpad, nossos cientistas de dados estão criando mais modelos de machine learning para otimizar a experiência do usuário. Na tentativa de minimizar o número de iterações de trabalho de treinamento para a obtenção da melhor performance, identificamos um grande desafio na implantação de endpoints de inferência de ML, o que estava desacelerando nossos processos de desenvolvimento. Para automatizar a implantação do modelo de ML de modo que os cientistas pudessem implantar modelos por conta própria, usamos as APIs de inferência do Amazon SageMaker e comprovamos que o serviço eliminava a necessidade de os engenheiros de aplicativos implantarem modelos de ML. Prevemos a automação deste processo com o Amazon SageMaker no ambiente de produção." 

Yoichiro Someya, Engenheiro de pesquisa - Cookpad

Fabulyst

Fabulyst

A Fabulyst é uma startup dedicada ao comércio de moda com sede na Índia que possibilita experiências mais positivas e personalizadas aos compradores, bem como conversões melhores para varejistas utilizando IA.

“A Fabulyst torna mais fácil para os compradores encontrarem as compras perfeitas, combinando os itens do inventário com as consultas personalizadas e específicas dos usuários (por exemplo, adequando-se ao seu tipo de corpo ou tom de pele). Ao mesmo tempo, ajudamos os varejistas a conseguir melhores conversões por meio da nossa visão computacional para produzir previsões de tendências mensais com base em dados de redes sociais, pesquisas, blogs, dentre outras fontes; automaticamente codificando essas tendências nos catálogos de nossos clientes de varejo. A Fabulyst usa a AWS para fornecer as nossas melhores soluções, incluindo o Amazon SageMaker para administrar as diversas previsões que sustentam nossas ofertas. Contando com o SageMaker e em outros serviços da AWS, podemos garantir valor aos nossos usuários – como um aumento de 10% na receita incremental para os varejistas – e confiamos em nossa capacidade de fornecer excelentes resultados em todas as oportunidades”.

Komal Prajapati, fundador e CEO - Fabulyst

Terragon Group

Terragon Group

O Terragon Group é uma empresa de tecnologia de dados e marketing que libera valor para as empresas usando insights para alcançar o público móvel na África. Ao longo dos anos, o Terragon Group tornou-se líder no setor de dispositivos móveis, atendendo a marcas locais e multinacionais em diversas áreas geográficas. Entregar a mensagem de anúncio certa para o usuário certo no momento certo exige personalização. O Terragon usa dados, insights e inteligência artificial para ajudar as empresas a alcançar o público certo na África.

"O Amazon SageMaker oferece um fluxo de trabalho de machine learning completo, sem necessidade de nenhuma infraestrutura subjacente. Nossas equipes de ciência de dados e machine learning podem passar rapidamente da exploração de dados ao treinamento e produção de modelos em apenas algumas horas. Para uma empresa sediada na África com poucos talentos de engenharia, não há outra maneira de construir e implantar modelos de ML resolvendo problemas da vida real em menos de 90 dias.”

Deji Balogun, diretor de tecnologia - Terragon Group

SmartNews

SmartNews

O SmartNews é a maior aplicação de notícias no Japão, fornecendo informações de qualidade para mais de 11 milhões de usuários ativos mensais no mundo. Com tecnologias de machine learning, a SmartNews ajuda os usuários com as notícias mais relevantes e interessantes. Os algoritmos de machine learning da SmartNews avaliam milhões de artigos, sinais sociais e interações humanas para entregar imediatamente as principais histórias, os 0,01% que realmente importam.

“Nossa missão de descobrir e fornecer histórias de qualidade para o mundo é desenvolvida pela AWS e, especialmente, pelo Amazon SageMaker, que nos ajudou a acelerar o ciclo de desenvolvimento para atender aos nossos clientes. O uso do Amazon SageMaker ajudou substancialmente os nossos métodos de seleção de notícias, incluindo a classificação de artigos usando aprendizado profundo, previsão do valor do tempo de vida e modelagem composta para textos e imagens. Estamos ansiosos para avançar ainda mais com o Amazon SageMaker e outras soluções de IA da AWS."

Kaisei Hamamoto, cofundador e codiretor executivo - SmartNews, Inc.

Pioneer

Pioneer

A Pioneer é uma empresa multinacional especializada em entretenimento digital, incluindo eletrônica de automóveis e serviços de mobilidade. As atividades da empresa são motivadas por sua filosofia corporativa de “Mover o coração e tocar a alma” e oferece aos clientes produtos e serviços que podem ajudá-los no dia a dia.

"Ao aproveitar o Amazon SageMaker e os recursos de treinamento de modelo, como o Ajuste automático de modelos, estamos aptos a desenvolver modelos de machine learning altamente precisos e continuar a garantir a privacidade de nossos clientes. Também estamos ansiosos para usar o AWS Marketplace para machine learning, tanto para algoritmos como para modelos pré-treinados, para criar uma plataforma de monetização."

Kazuhiro Miyamoto, gerente geral do departamento de engenharia de serviços da informação - Pioneer

dely

Dely

A Dely opera o melhor serviço de vídeos sobre culinária do Japão, o Kurashiru. A empresa se esforça todos os dias para criar serviços culinários com impacto global. Kurashiru ajuda muitas pessoas por dia apresentando diversas receitas saborosas que colorem a mesa de jantar com vídeos de culinária. Dezenas de milhões de pessoas assistem e ouvem serviços mensais de receitas no Japão.

"Já passamos dos 15 milhões de downloads do nosso aplicativo móvel nos dois anos e meio desde o lançamento do popular serviço Kurashiru. Acreditamos que é essencial entregar aos usuários o conteúdo certo no momento certo, usando tecnologias avançadas como machine learning. Para isso, usamos o Amazon SageMaker, que ajudou a construir e implantar os modelos de machine learning em produção em 90 dias. Além disso, aumentamos a taxa de cliques em 15% com a personalização do conteúdo.”

Masato Otake, diretor de tecnologia - Dely, Inc.

Redes da Ayla

Redes da Ayla

Ayla Networks é uma empresa de software de plataforma como um serviço de IoT sediada em São Francisco. Ela desenvolve soluções para os mercados de consumo e comercial.

"Na Ayla Networks, descobrimos que nossos clientes executam na infraestrutura da AWS devido a sua escalabilidade e confiabilidade comprovada. Especificamente, vemos que os fabricantes comerciais estão aproveitando o Amazon SageMaker para dominar os dados de performance do equipamento obtidos do Ayla Cloud. Com o Amazon SageMaker e nosso produto Ayla IQ, as empresas podem revelar insights e anomalias que levam a melhor qualidade de produtos e serviços, até mesmo na previsão de falhas da máquina e corrigindo-as antes que ocorram. Essa solução mantém nossos clientes operando perfeitamente de maneira que as empresas deles podem continuar crescendo, produzindo e escalando sem preocupações."

Prashanth Shetty, vice-presidente de marketing global - Ayla Networks

FreakOut

FreakOut

A FreakOut é uma empresa de tecnologia líder no setor, voltada para publicidade digital. A empresa oferece produtos para transações de inventário de anúncios em tempo real na publicidade da internet, bem como análise de dados para navegar na web. A FreakOut aproveita o machine learning para fazer previsões de taxa de cliques e taxa de conversão.

"Estamos no processo de migrar os ambientes de treinamento de machine learning on-premises para o Amazon SageMaker. O Amazon SageMaker nos oferece uma solução mais escalável para nossos negócios. Com o recurso Ajuste automático de modelos do Amazon SageMaker, podemos otimizar e estimar modelos altamente precisos para nossos requisitos."

Jiro Nishiguchi, diretor de tecnologia - FreakOut

Wag!

Wag!

“Na Wag!, temos de atender às necessidades de suprimento e demanda em um mercado bilateral. Vimos uma oportunidade de usar o machine learning desenvolvido pela AWS para prever a demanda de passeio com cães dos nossos clientes. Padronizando nossos aplicativos de machine learning na AWS, podemos atender ao crescimento contínuo de nossas necessidades comerciais iterando a um ritmo muito aprimorado e escalar independentemente dos recursos limitados de engenharia. Usando o Amazon SageMaker, podemos acelerar nossa experimentação com machine learning, reduzindo para 3 dias o tempo computacional de 45 dias para treinar o modelo.”

Dave Bullock, vice-presidente de tecnologia de engenharia e operações – Wag Labs Inc.

Print

Infoblox

A Infoblox é líder em serviços de rede gerenciados em nuvem seguros, projetados para gerenciar e proteger o núcleo da rede, como DNS, DHCP e gerenciamento de endereço IP (coletivamente conhecido como DDI).

“Na Infoblox, criamos um serviço de análise de segurança de DNS com o Amazon SageMaker que detecta agentes mal-intencionados que criam homógrafos para personificar alvos de nomes de domínio altamente valiosos e os usa para descartar malware, informações de phishing de usuário e atacar a reputação de uma marca. A AWS é nosso padrão corporativo para nuvem e podemos aproveitar vários recursos oferecidos pelo SageMaker para agilizar o desenvolvimento do modelo de ML. Usando os recursos de ajuste automático de modelo do SageMaker, dimensionamos nossa experimentação e aprimoramos a precisão para 96,9%. Graças ao SageMaker, nosso detector de homógrafos de IDNs, parte de nosso serviço de análise de segurança, identificou mais de 60 milhões de resoluções de domínios de homógrafos e continua a encontrar milhões todo mês, o que ajuda nossos clientes a detectar abusos de marca de maneira mais rápida.”

Femi Olumofin, Arquiteto de solução analítica, Infoblox

NerdWallet

NerdWallet

A NerdWallet, uma empresa de finanças pessoais sediada em San Francisco, fornece análises e comparações de produtos financeiros, incluindo cartões de crédito, bancos, investimentos, empréstimos e seguros.

“A NerdWallet depende de ciência de dados e ML para conectar clientes com produtos financeiros personalizados. Escolhemos padronizar nossas cargas de trabalho de ML na AWS porque nos permitiu modernizar rapidamente nossas práticas de engenharia de ciência de dados, removendo obstáculos e acelerando o tempo de entrega. Com o Amazon SageMaker, nossos cientistas de dados podem investir mais tempo em questões estratégias e concentrar mais energia onde está nossa vantagem competitiva: nossos insights sobre os problemas que estamos resolvendo para nossos clientes.”

Ryan Kirkman, Gerente de engenharia sênior, NerdWallet

Splice

Splice

A Splice é uma plataforma criativa para músicos, criada por músicos, para incentivar os artistas a liberar seu verdadeiro potencial criativo. A startup de criação de músicas baseada em assinatura foi fundada em 2013 e agora lida com mais de 3 milhões de músicos, que exploram o catálogo em busca de sons perfeitos.

“Conforme nosso catálogo de sons e presets aumenta, também aumenta o desafio de encontrar o som correto. É por isso que a Splice investiu em criar as melhores capacidades de pesquisa e descoberta. Ao padronizar nossas cargas de trabalho de ML na AWS, criamos uma nova oferta voltada ao clientes, que visa facilitar mais do que nunca conectar músicos com os sons que eles procuram. Desde o lançamento dos Sons Similares, observamos quase dez porcento de aumento nas conversões de busca. Fazendo uso do Amazon SageMaker, criamos o complemento perfeito para a pesquisa baseada em texto, permitindo a nossos usuários descobrir e navegar por nosso catálogo de formas antes impossíveis.”

Alejandro Koretzky, chefe de machine learning e engenheiro chefe, Splice

Audeosoft

Audeosoft

“Antes de iniciarmos nossa jornada rumo ao machine learning, somente conseguíamos pesquisar textos em currículos. A falta de recursos de reconhecimento óptico de caracteres impedia que todos os currículos fossem pesquisados. Agora, com o Amazon Textract, podemos extrair o conteúdo de todos os tipos de documentos e temos os recursos necessários para indexar todos os arquivos carregados em um cluster do Elasticsearch. Todos os documentos carregados são pesquisáveis com o Elasticsearch a uma velocidade dez vezes maior que a da pesquisa original usando SQL. Além disso, implementamos a vetorização de palavras usando o Amazon SageMaker para adicionar palavras-chave relacionadas a consultas de pesquisa. Esse processo nos permite classificar e qualificar com precisão os candidatos e nos ajuda a eliminar os erros causados por sinônimos ou grafias alternativas usadas em currículos. Com o Amazon SageMaker e o Amazon Textract, podemos entregar aos recrutadores os candidatos mais inteligentes e qualificados. Performance estável, disponibilidade global e confiabilidade são fatores de sucesso cruciais para a Audeosoft. Quando tomamos a decisão de estabelecer uma parceria com a AWS há cerca de oito anos, sabíamos que ela seria um parceiro excelente para o futuro. A escolha da AWS como provedor de nuvem preferencial nos proporcionou um parceiro com a mesma dinâmica e o mesmo desejo de criar inovações, como continuaremos fazendo por muitos anos.”

Marcel Schmidt, diretor de tecnologia – Audeosoft

Freshworks

Freshworks

Freshworks é uma empresa de SaaS B2B com sede nos EUA/Índia que atende pequenas e médias empresas (SMB) e empresas de médio porte em todo o mundo. A Freshworks oferece um portfólio de aplicações simples de usar, mas avançadas para fluxos de trabalho de interação de clientes e funcionários.

"Na Freshworks, criamos nossa oferta principal de AI/ML, o Freddy AI Skills, com modelos hiperpersonalizados que auxiliam os agentes na abordagem de dúvidas dos usuários e na resolução de tíquetes de suporte com sucesso, as equipes de vendas e marketing priorizam oportunidades e fecham negócios rapidamente, e os gerentes de sucesso do cliente reduzem o risco de rotatividade e expandem os negócios. Optamos por padronizar nossas cargas de trabalho de ML na AWS porque poderíamos construir, treinar e implantar facilmente modelos de machine learning otimizados para os casos de uso de nossos clientes. Graças ao Amazon SageMaker, criamos mais de 30.000 modelos para 11.000 clientes, enquanto reduzimos o tempo de treinamento para esses modelos de 24 horas para menos de 33 minutos. Com o SageMaker Model Monitor, podemos acompanhar os desvios de dados e readaptar os modelos para garantir a precisão. O Freddy AI Skills, baseado no Amazon SageMaker, está em constante evolução com ações inteligentes, insights de dados profundos e conversas orientadas por intenções.”

Tejas Bhandarkar, diretor de produto sênior – Freshworks Platform

Veolia

Veolia

A Veolia Water Technologies é uma empresa de design experiente e provedora especializada de soluções e serviços tecnológicos na área de tratamento de água e águas servidas.

“Em oito semanas breves, trabalhamos com a AWS a fim de desenvolver um protótipo para prever quando limpar ou trocar membranas de filtragem de água em nossas plantas de dessanilização. Usando o Amazon SageMaker, criamos um modelo de ML que aprende com padrões anteriores e prevê a evolução futura de indicadores de sujeira. Com a padronização das nossos workloads de ML na AWS, conseguimos reduzir os custos e evitar tempos de indisponibilidade ao mesmo tempo que aumentamos a qualidade da água produzida. Esses resultados não teriam sido possíveis sem a experiência técnica, a confiança e a dedicação das duas equipes para alcançar uma meta: o fornecimento ininterrupto de água limpa e segura.”

Aude GIARD, diretor digital – Veolia Water Technologies

Sportradar

Sportradar

Sportradar, um grande fornecedor de dados esportivos, entrega dados esportivos em tempo real para 65 equipes em todo o mundo. Com o objetivo de gerar insights inovadores, a empresa colaborou com o Amazon ML Solutions Lab para desenvolver um preditor de gol no futebol.

“Intencionalmente jogamos um dos problemas de visão computacional mais complicado possível para a equipe do Amazon ML Solutions Lab para testar os recursos do AWS machine learning, e estou muito impressionado com os resultados. A equipe criou um modelo de ML para prever gols no futebol dois segundos antes da jogada ao vivo usando o Amazon SageMaker. Apenas o modelo abriu portas para muitas novas oportunidades de negócios para nós. Estamos animados para padronizar nossas cargas de trabalho de ML na AWS porque podemos criar, treinar e implantar modelos que promovem a inovação em nossos negócios e estão de acordo com os nossos requisitos de custo e latência.”  

Ben Burdsall, CTO – Sportradar

Roche

Roche

F. A Hoffmann-La Roche AG (Roche) é uma empresa multinacional suíça de ciências biológicas especializada em produtos farmacêuticos e diagnósticos.

“Eu queria impulsionar minhas equipes para sistematizar nossos fluxos de trabalho de ML na nuvem, então trabalhamos com o Machine Learning Solutions Lab para oferecer workshops do Amazon SageMaker, demonstrando como o SageMaker simplifica o processo de produção de ML para cientistas de dados. Desde o workshop, 80% de nossos workloads de ML são executados na AWS, o que ajuda nossas equipes a trazer modelos de ML para produção três vezes mais rápido.” O SageMaker e a pilha AWS nos permitem usar recursos de computação para treinar sob demanda, sem ficar restrito pela disponibilidade on-premises.”  

Gloria Macia, cientista de dados - Roche

Guru_Logos

Guru

“Na Guru, acreditamos que o conhecimento necessário para execução do seu trabalho deve chegar até você. Somos uma solução de gerenciamento de conhecimento que captura as informações mais valiosas de sua equipe e as organiza em uma única fonte de verdade. Utilizamos a IA para recomendar conhecimento em tempo real onde você trabalha, garantir que ele seja comprovado e para ajudar a gerenciar melhor sua base de conhecimentos geral. Nossa crescente equipe de ciência de dados de produtos enfrenta todos os desafios da equipe de ML moderna (criar, treinar e implantar sistemas de ML em escala) e contamos com o Amazon SageMaker como forma de superar alguns desses desafios. Atualmente, aproveitamos a SageMaker Inference para implantar mais rapidamente nossos modelos de ML para produção, onde eles nos ajudam a cumprir nosso objetivo número um: fornecer valor a nossos clientes.”  

Nabin Mulepati, engenheiro chefe de ML - Guru

Operações da Amazon

Operações da Amazon

Como parte do compromisso da Amazon com a segurança de seus associados durante a pandemia da COVID-19, a equipe de operações da Amazon implantou uma solução de ML para ajudar a manter protocolos de distanciamento social nos mais de 1.000 edifícios de operações em todo o mundo. As Operações da Amazon colaboraram com o Laboratório de soluções do Amazon Machine Learning para criar modelos de visão por computador de última geração para estimativa de distância usando o Amazon SageMaker.

“Ao padronizar nossas cargas de trabalho de ML na AWS e trabalhar com os especialistas do Laboratório de soluções de ML, criamos um conjunto inovador de modelos que estimamos poder economizar até 30% do nosso esforço de revisão manual. O uso do Amazon SageMaker nos permite gastar mais tempo focados na segurança e no aumento da precisão, reduzindo a necessidade de centenas de horas de revisão manual por dia.”

Russell Williams, diretor de desenvolvimento de software – Amazon OpsTech IT

Freddy's

Freddy’s Frozen Custard & Steakburgers

Freddy’s Frozen Custard & Steakburgers é um restaurante casual rápido que oferece uma combinação única de hambúrgueres preparados na hora, cachorros-quentes Vienna Beef, batatas fritas e outros itens salgados, juntamente com guloseimas de creme recém-batidas congeladas. Fundado em 2002 e franqueado em 2004, o Freddy’s possui atualmente cerca de 400 restaurantes em 32 estados.

“Anteriormente, escolheríamos simplesmente dois restaurantes que pareciam semelhantes, mas agora temos um verdadeiro entendimento das relações entre nossos itens de menu, clientes e locais. O Amazon SageMaker Autopilot, que capacita o novo recurso de ML do Domo, tem sido um multiplicador de força para nossas equipes de marketing e compras para tentar novas ideias e melhorar a experiência de nossos clientes.”

Sean Thompson, diretor de TI – Freddy’s

Freddy's

Vanguard

“Estamos entusiasmados com o fato de nossos cientistas e engenheiros de dados da Vanguard agora poderem colaborar em um único notebook para análise e machine learning. Agora que o Amazon SageMaker Studio dispõe de integrações integradas com o Spark, Hive e Presto, todos em execução no Amazon EMR, nossas equipes de desenvolvimento podem ser mais produtivas. Esse ambiente de desenvolvimento único permitirá que nossas equipes se concentrem na criação, no treinamento e na implantação de modelos de machine learning.”

Doug Stewart, diretor sênior de dados e análise, Vanguard

Freddy's

Provectus

“Estávamos esperando um atributo para criar e gerenciar clusters do Amazon EMR diretamente do Amazon SageMaker Studio para que nossos clientes pudessem executar fluxos de trabalho do Spark, Hive e Presto diretamente dos cadernos do Amazon SageMaker Studio. Estamos entusiasmados com o fato de o Amazon SageMaker ter desenvolvido nativamente esse recurso para simplificar o gerenciamento do Spark e dos trabalhos de machine learning. Isso ajudará os engenheiros e cientistas de dados de nossos clientes a colaborar de forma mais eficaz para fazer análises de dados interativas e desenvolver pipelines de machine learning com transformações de dados baseadas em EMR.”

Stepan Pushkarev, CEO, Provectus

Freddy's

Climate

“Na Climate, acreditamos em fornecer aos agricultores do mundo informações precisas para tomar decisões orientadas por dados e maximizar seu retorno em cada hectare. Para conseguir isso, investimos em tecnologias como ferramentas de machine learning para construir modelos usando entidades mensuráveis conhecidas como atributos, como a produtividade do campo de um produtor. Com o Amazon SageMaker Feature Store, podemos acelerar o desenvolvimento de modelos de ML com uma loja de recursos central para acessar e reutilizar recursos em várias equipes com facilidade. O SageMaker Feature Store facilita o acesso a recursos em tempo real usando a loja online ou a execução de recursos em uma programação usando a loja offline para diferentes casos de uso. Com o SageMaker Feature Store, podemos desenvolver modelos de ML mais rapidamente.”


Atul Kamboj, cientista de dados sênior - iCare, agência governamental de seguros e cuidados de saúde de NSW, AustráliaDaniel McCaffrey, vice-presidente de dados e análises da Climate

Featured customers - 26

Experian

“Na Experian, acreditamos que é nossa responsabilidade capacitar os consumidores a entender e usar o crédito em suas vidas financeiras e auxiliar os credores no gerenciamento do risco de crédito. À medida que continuamos a implementar práticas recomendadas para construir nossos modelos financeiros, buscamos soluções que acelerem a produção de produtos que aproveitem o machine learning. O Amazon SageMaker Feature Store nos oferece uma maneira segura de armazenar e reutilizar recursos para nossas aplicações de ML. A capacidade de manter a consistência das aplicações em tempo real e em lote em várias contas é um requisito fundamental para nossos negócios. O uso dos novos recursos do Amazon SageMaker Feature Store nos permite capacitar nossos clientes a assumir o controle de seu crédito e reduzir custos na nova economia.”

Geoff Dzhafarov, arquiteto-chefe de empresas, Experian Consumer Services

Freddy's

Dena

“Na DeNA, nossa missão é causar impacto e prazer usando a Internet e IA/ML. Fornecer serviços baseados em valor é nosso objetivo principal e queremos garantir que nossos negócios e serviços estejam prontos para atingir esse objetivo. Gostaríamos de descobrir e reutilizar recursos em toda a organização e o Amazon SageMaker Feature Store nos ajuda com uma maneira fácil e eficiente de reutilizar recursos para diferentes aplicações. O Amazon SageMaker Feature Store também nos ajuda a manter as definições de recursos padrão e nos ajuda com uma metodologia consistente à medida que treinamos modelos e os implantamos na produção. Com esses novos recursos do Amazon SageMaker, podemos treinar e implantar modelos de ML mais rapidamente, mantendo-nos no caminho para encantar nossos clientes com os melhores serviços.”

Kenshin Yamada, gerente geral da Unidade de sistemas do Departamento de Sistemas de IA, DeNA

Freddy's

United Airlines

“Na United Airlines, usamos o machine learning (ML) para melhorar a experiência do cliente, oferecendo ofertas personalizadas, permitindo que os clientes estejam prontos usando o Travel Readiness Center. Nosso uso do ML também se estende a operações aeroportuárias, planejamento da rede e programação de voos. Quando estávamos saindo da pandemia, o Amazon SageMaker desempenhou um papel fundamental no Travel Readiness Center, permitindo que lidássemos com grandes volumes de certificados de testes de COVID e cartões de vacinas usando a automação de modelos com base em documentos. Com os novos recursos de governança do Amazon SageMaker, aumentamos o controle e a visibilidade sobre nossos modelos de machine learning. O SageMaker Role Manager simplifica drasticamente o processo de configuração para os usuários, fornecendo permissões de linha de base e atividades de ML para cada persona vinculada a perfis do IAM. Com o SageMaker Model Cards, nossas equipes podem capturar e compartilhar proativamente as informações do modelo para revisão e, usando o SageMaker Model Dashboard, podemos pesquisar e visualizar modelos implantados no MARS, nossa plataforma interna de ML. Com todos esses novos recursos de governança, estamos economizando um tempo significativo e podemos aumentar a escala verticalmente.”

Ashok Srinivas, diretor de engenharia e operações de ML, United Airlines

Freddy's

Capitec

“Na Capitec, temos uma grande variedade de cientistas de dados em nossas linhas de produtos, criando diferentes soluções de ML. Nossos engenheiros de ML gerenciam uma plataforma de modelagem centralizada criada no Amazon SageMaker para capacitar o desenvolvimento e a implantação de todas essas soluções de ML. Sem ferramentas integradas, os esforços de modelagem de rastreamento tendem a uma documentação desarticulada e à falta de visibilidade do modelo. Com o SageMaker Model Cards, podemos rastrear muitos metadados de modelo em um ambiente unificado, e o SageMaker Model Dashboard nos dá visibilidade sobre a performance de cada modelo. Além disso, o SageMaker Role Manager simplifica o processo de gerenciamento do acesso para cientistas de dados em nossas diferentes linhas de produtos. Cada uma delas contribui para que nosso modelo de governança seja suficiente para garantir a confiança que nossos clientes depositam em nós como prestadores de serviços financeiros.”

Dean Matter, engenheiro de machine learning do Capitec Bank

Freddy's

Lenovo

A Lenovo™, a principal fabricante global de PCs, incorporou recentemente o Amazon SageMaker em sua mais recente oferta de manutenção preditiva.  Ashok Srinivas, diretor de engenharia e operações de ML da United Airlines.

“O novo SageMaker Edge Manager ajudará a eliminar o esforço manual necessário para otimizar, monitorar e melhorar continuamente os modelos após a implantação. Com isso, esperamos que nossos modelos funcionem mais rápido e consumam menos memória do que com outras plataformas de machine learning comparáveis. O SageMaker Edge Manager nos permite obter amostras dos dados na borda automaticamente, enviá-los com segurança para a nuvem e monitorar a qualidade de cada modelo em cada dispositivo continuamente após a implantação. Isso nos permite monitorar, melhorar e atualizar remotamente os modelos em nossos dispositivos de borda em todo o mundo e, ao mesmo tempo, economiza tempo e custos para nós e nossos clientes.”

Igor Bergman, vice-presidente de nuvem e software de PCs e dispositivos inteligentes da Lenovo.

Freddy's

Basler AG

A Basler AG é uma fabricante líder de câmeras digitais e acessórios de alta qualidade para a indústria, medicina, transporte e uma variedade de outros mercados.

“A Basler AG oferece soluções inteligentes de visão computacional em uma variedade de setores, incluindo aplicações de manufatura, médicas e de varejo. Estamos entusiasmados em ampliar nossa oferta de software com novos atributos possibilitados pelo Amazon SageMaker Edge Manager. Para garantir que nossas soluções de machine learning tenham performance e confiabilidade, precisamos de uma ferramenta MLOps escalável da borda até a nuvem que nos permita monitorar, manter e melhorar continuamente os modelos de machine learning em dispositivos de borda. O SageMaker Edge Manager nos permite obter amostras dos dados na borda automaticamente, enviá-los com segurança para a nuvem e monitorar a qualidade de cada modelo em cada dispositivo continuamente após a implantação. Isso nos permite monitorar, melhorar e atualizar remotamente os modelos em nossos dispositivos de borda em todo o mundo e, ao mesmo tempo, economiza tempo e custos para nós e nossos clientes.”

Mark Hebbel, diretor de soluções de software da Basler.

NWG_LOGO_HZ_POS_RGB_forpsd

NatWest Group

O NatWest Group, uma importante instituição de serviços financeiros, padronizou seu processo de desenvolvimento e implantação de modelos de ML em toda a organização, reduzindo o ciclo de execução de serviços para criar novos ambientes de ML de 40 dias para 2 dias e acelerando o tempo para obtenção de valor em casos de uso de ML de 40 para 16 semanas.

Freddy's

AstraZeneca

“Em vez de criarmos muitos processos manuais, podemos automatizar com simplicidade a maior parte do processo de desenvolvimento de machine learning no Amazon SageMaker Studio.” 

Cherry Cabading, arquiteta corporativa sênior global– AstraZeneca

Freddy's

Janssen

Empregando serviços da AWS, entre eles o Amazon SageMaker, a Janssen implementou um processo automatizado de MLOps que melhorou em 21% a precisão das previsões de modelos e aumentou em aproximadamente 700% a velocidade da engenharia de atributos, ajudando a empresa a reduzir os custos e, ao mesmo tempo, aumentar a eficiência.
Freddy's

Qualtrics

“O Amazon SageMaker melhora a eficiência das nossas equipes de MLOps com as ferramentas necessárias para testar e implantar modelos de machine learning em grande escala.”

Samir Joshi, engenheiro de ML – Qualtrics

Freddy's

Deloitte

“O Amazon SageMaker Data Wrangler nos possibilita começar a trabalhar para atender às nossas necessidades de preparação de dados com uma avançada coleção de ferramentas de transformação que aceleram o processo de preparação de dados de ML necessário para lançar novos produtos no mercado. Por sua vez, nossos clientes se beneficiam da taxa em que escalamos modelos implantados, permitindo-nos entregar resultados mensuráveis e sustentáveis que atendem às necessidades de nossos clientes em questão de dias, em vez de meses.”

Frank Farrall, diretor e chefe de plataformas e ecossistemas de IA da Deloitte

Freddy's

NRI

“Como um parceiro de consultoria premier da AWS, nossas equipes de engenharia estão trabalhando em estreita colaboração com a AWS para desenvolver soluções inovadoras para ajudar nossos clientes a melhorar continuamente a eficiência de suas operações. O ML é o núcleo de nossas soluções inovadoras, mas nosso fluxo de trabalho de preparação de dados envolve técnicas sofisticadas de preparação de dados que, como resultado, demoram um tempo considerável para serem operacionalizadas em um ambiente de produção. Com o Amazon SageMaker Data Wrangler, nossos cientistas de dados podem concluir cada etapa do fluxo de trabalho de preparação de dados, incluindo seleção, limpeza, exploração e visualização de dados, o que nos ajuda a acelerar o processo de preparação de dados e prepará-los com facilidade para ML. Com o Amazon SageMaker Data Wrangler, podemos preparar dados para ML mais rapidamente.”

Shigekazu Ohmoto, diretor administrativo empresarial sênior da NRI Japan

Freddy's

Equilibrium

“À medida que nossa presença no mercado de gerenciamento de saúde populacional continua a se expandir para mais pagadores da área de saúde, provedores, gerentes de benefícios farmacêuticos e outras organizações de saúde, precisávamos de uma solução para automatizar processos completos para fontes de dados que impulsionam nossos modelos de ML, incluindo dados de reclamações, de inscrições e de farmácia. Com o Amazon SageMaker Data Wrangler, podemos acelerar o tempo necessário para agregar e preparar dados para ML usando um conjunto de fluxos de trabalho mais fáceis de validar e reutilizar. Isso melhorou drasticamente o tempo de entrega e a qualidade de nossos modelos, aumentou a eficácia de nossos cientistas de dados e reduziu em quase 50% o tempo de preparação de dados. Além disso, o SageMaker Data Wrangler nos ajudou a economizar várias iterações de ML e níveis significativos de tempo de GPU, acelerando todo o processo de ponta a ponta para nossos clientes, pois podemos desenvolver data marts com milhares de atributos, incluindo farmácia, códigos de diagnóstico, consultas de emergência, internações, bem como dados demográficos e outros determinantes sociais. Com o SageMaker Data Wrangler, podemos transformar nossos dados com eficiência superior para criar conjuntos de dados de treinamento, gerar insights de dados em conjuntos de dados antes de executar modelos de ML e preparar dados reais para inferências e previsões em grande escala.”

Lucas Merrow, CEO da Equilibrium Point IoT

Freddy's

iCare Insurance and Care NSW

A iCare é um órgão governamental de NSW que fornece seguro de remuneração de trabalhadores para mais de 329.000 empregadores dos setores público e privado em NSW, Austrália, e seus 3,2 milhões de funcionários. Além disso, a iCare oferece seguros a construtores e proprietários de casas, oferece tratamento e assistência a pessoas gravemente feridas nas estradas de NSW e protege mais de USD 266,6 bilhões em ativos do governo de NSW, incluindo a Sydney Opera House, a Sydney Harbour Bridge, escolas e hospitais.

“Na Insurance and Care (iCare) NSW, nossa visão é mudar a forma como as pessoas pensam sobre seguros e assistência. O Amazon SageMaker permitiu que a iCare criasse e treinasse modelos de aprendizado profundo para identificação precoce de pacientes com doenças de poeira a longo prazo. Essa identificação precoce pode evitar condições de risco de vida. De acordo com estudos anteriores, os sinais de silicose não foram detectados ou não puderam ser detectados em 39% dos pacientes. O diagnóstico assistido por IA permitiu que os médicos identificassem corretamente 80% dos casos, em comparação com 71% dos diagnósticos não assistidos. Depois de implementar esse projeto, estamos usando o Amazon SageMaker para desenvolver soluções e processos em outros projetos, pois isso provou ser mais rápido e fácil do que antes, e podemos escalar facilmente nossos esforços para prestar assistência às pessoas de NSW.”

Atul Kamboj, cientista sênior de dados - iCare, agência governamental de seguros e cuidados de NSW, Austrália