Clienti di Amazon SageMaker

Scopri come le principali organizzazioni in tutto il mondo utilizzano Amazon SageMaker per costruire, addestrare e implementare modelli di machine learning (ML).

Articul8 AI

“Amazon SageMaker HyperPod ci ha aiutato moltissimo a gestire e utilizzare le nostre risorse di calcolo in modo più efficiente e con tempi di inattività minimi. Siamo stati tra i primi ad utilizzare il servizio HyperPod basato su Slurm e abbiamo beneficiato della sua facilità d'uso e delle sue caratteristiche di resilienza, con un conseguente miglioramento della produttività fino al 35% e un rapido aumento verticale delle nostre operazioni di IA generativa. In qualità di azienda Kubernetes, siamo ora entusiasti di dare il benvenuto al lancio del supporto Amazon EKS per SageMaker HyperPod. Questo è un punto di svolta per noi in quanto si integra perfettamente con le nostre pipeline di addestramento esistenti e ci rende ancora più facile la gestione e l'utilizzo dei nostri cluster Kubernetes su larga scala. Inoltre, questo aiuta anche i nostri clienti finali, in quanto siamo ora in grado di pacchettizzare e commercializzare questa funzionalità nella nostra piattaforma di IA generativa, consentendo ai nostri clienti di eseguire i propri carichi di lavoro di addestramento e di ottimizzazione in modo più snello.”

Arun Subramaniyan, fondatore e CEO di Articul8 AI

Observea

“In qualità di startup in rapida evoluzione e di società di ricerca sull'IA, il supporto di Amazon EKS in SageMaker HyperPod è stato determinante per accelerare il nostro time-to-market. Con SageMaker Hyperpod, siamo stati in grado di lanciare una piattaforma stabile e sicura per offrire applicazioni containerizzate di calcolo ad alte prestazioni (HPC) come servizio ai nostri clienti finali, che includono i migliori programmi di ricerca universitari sull'IA, startup sull'IA e imprese tradizionali. Grazie all'uso di SageMaker HyperPod, i nostri clienti e i nostri team interni non devono più preoccuparsi del funzionamento e della configurazione del piano di controllo (control-plane) di Kubernetes, mentre SageMaker HyperPod fornisce le prestazioni di rete e le configurazioni ottimizzate per supportare carichi di lavoro HPC complessi. Con EKS Support in SageMaker HyperPod, possiamo ridurre il tempo impiegato per i carichi di lavoro pesanti e indifferenziati nella gestione dell'infrastruttura e ridurre i costi operativi di oltre il 30%.”

Vamsi Pandari, fondatore di Observea

Recursal AI

“L'intero processo è stato semplificato. Utilizzando SageMaker HyperPod, possiamo sfruttare le funzionalità di resilienza del cluster che identificano e recuperano automaticamente i lavori di addestramento dall'ultimo checkpoint salvato in caso di guasto hardware. Eseguiamo carichi di lavoro molto diversi, dalle applicazioni, all'inferenza e all'addestramento, con Kubernetes come filo conduttore. Per noi, Amazon EKS con SageMaker HyperPod è semplicemente un'ottima soluzione: i nodi vengono facilmente inseriti nel nostro cluster.”

Nathan Wilce responsabile infrastruttura/dati, Recursal

Rocket Companies

Rocket Mortgage

"Rocket Mortgage è orgogliosa di essere in prima linea nell'integrazione dell'intelligenza artificiale e del data science nel percorso di acquisto di una casa, con AWS come partner chiave. Utilizzando Amazon SageMaker, stiamo trasformando le nostre operazioni di machine learning, aumentando l'efficienza e la precisione. L'editor visuale SageMaker Pipelines consente una rapida valutazione delle prestazioni dei nuovi LLM open-source eseguendoli attraverso la nostra pipeline di convalida automatizzata. Ciò riduce al minimo il tempo necessario per valutare le nuove versioni, fondamentale in un panorama in rapida evoluzione. La facilità d'uso consente ai nostri team di data science di concentrarsi sull'innovazione anziché sulla riscrittura del codice.”

Shawn Malhotra, Chief Technology Officer di Rocket Companies

SatSure

SatSure, un'azienda globale leader nelle soluzioni di decision intelligence, utilizza i dati di osservazione della Terra e i modelli di deep learning per generare approfondimenti per una serie di casi d'uso, dal monitoraggio delle colture in tutte le stagioni e la valutazione dei rischi per le aziende agricole al rilevamento dei cambiamenti della copertura del suolo, alla gestione della vegetazione, al rischio di incendi e all'identificazione delle caratteristiche del terreno.
 

"Utilizziamo Pipeline Amazon SageMaker per creare modelli per un'applicazione che identifica i confini delle aziende agricole in immagini satellitari a bassa risoluzione. Lo sviluppo di modelli di deep learning all'avanguardia a partire da grandi set di dati di immagini satellitari è estremamente impegnativo. Siamo in grado di concentrarci maggiormente sull'innovazione dell'IA e dedicare meno tempo ai processi manuali perché le pipeline ci consentono di automatizzare la preelaborazione frequente dei dati, l'addestramento dei modelli e le implementazioni dei modelli. L'interfaccia utente drag-and-drop consente ai nuovi data scientist del team di iniziare rapidamente e creare flussi di lavoro di ML senza conoscenze specialistiche di uno specifico framework di orchestrazione del flusso di lavoro".

Prateep Basu, Founder & CEO, SatSure Ltd.

EagleView

"Per soddisfare la richiesta dei nostri clienti di approfondimenti sui dati di alta qualità, ricerchiamo e forniamo costantemente nuove funzionalità supportate dal machine learning. La nuova interfaccia utente drag-and-drop di Pipeline Amazon SageMaker fornirà ai nostri data scientist un modo per rimanere concentrati sui problemi di visione artificiale (CV) più difficili senza preoccuparsi di MLOps. Stiamo creando pipeline che consentono ai data scientist di registrare semplicemente i propri modelli in SageMaker senza doversi coordinare con gli ingegneri del machine learning per ottimizzare l'ambiente di gestione dei modelli. La pipeline in più fasi distribuirà automaticamente i modelli registrati agli endpoint Amazon SageMaker Inference in ambienti di controllo qualità per i test di carico e, se approvati dagli ingegneri ML, negli ambienti di produzione. La velocità complessiva del nostro sviluppo ML end-to-end è migliorata in modo significativo perché Pipeline Amazon SageMaker semplifica l'integrazione con altri servizi AWS (CI/CD, servizi di messaggistica) per creare flussi di lavoro ML altamente personalizzati."

Garrett Hemann, Head of AI/ML, EagleView

Thomson Reuters

GoDaddy

In GoDaddy, miriamo ad aiutare gli imprenditori di tutti i giorni a ottenere successo fornendo loro gli strumenti per avviare la propria attività. "Serviamo clienti con esigenze diverse. Spesso comunicano con le aziende che supportano 24 ore su 24 e su più canali, tra cui e-mail, chat e social media", afferma Jing Xi, VP Applied ML and AI di GoDaddy. "Oggi, l'intelligenza artificiale generativa livella il campo di gioco per le piccole imprese dando loro un'incredibile quantità di potere e conoscenza, normalmente riservati alle grandi aziende, a portata di mano. Tuttavia, una delle maggiori sfide che i nostri team di sviluppo dell'IA generativa devono affrontare è cercare di capire quale FM sia giusto per le loro applicazioni aziendali. Per noi è importante poter confrontare facilmente i modelli in base a criteri specifici che sono molto importanti per i nostri clienti e raggiungere il giusto equilibrio tra costo del modello, latenza e precisione e prestazioni del modello. La nuova funzionalità di valutazione dei modelli di Amazon SageMaker ci aiuta ad accelerare il tempo necessario per passare dall'idea all'implementazione eliminando le complessità legate al processo di selezione dei modelli e ad eseguire facilmente la sperimentazione, lo sviluppo, l'implementazione e la gestione di nuove versioni di questi modelli. Siamo entusiasti di espandere l'accesso a questa nuova funzionalità a più team in modo che gli sviluppatori possano aumentare la loro produttività e sfruttare ulteriormente la potenza dell'IA generativa per consentire ai clienti di far crescere il loro business”.
“GoDaddy è stata in prima linea nello sfruttare il machine learning per fornire funzionalità incentrate sul cliente e migliorare l'efficienza dei costi nelle nostre operazioni interne. I nostri ML scientist lavorano su numerosi progetti per raggiungere questi obiettivi. L'iterazione rapida del flusso di lavoro ML per la cura dei dati, la registrazione degli esperimenti, la gestione degli artefatti del modello utilizzando un registro dei modelli e l'implementazione sono elementi essenziali per fornire valore. La necessità di uno strumento su misura come MLflow è stata una richiesta forte e chiara da parte dei nostri ML scientist. Amazon SageMaker offre una piattaforma gestita e governata per gli ML scientist per i flussi di lavoro ML end-to-end e, abilitando l'uso di uno strumento standard del settore come MLflow all'interno di SageMaker, potenzia il ciclo di vita di sviluppo dei modelli. Otteniamo la sicurezza e la maturità di livello aziendale di prodotti come il Registro dei modelli Amazon SageMaker, avvalendoci anche del monitoraggio degli esperimenti ML standard del settore tramite MLflow. L'adozione di MLflow da parte di SageMaker all'interno dei team ha ridotto l'onere operativo legato alla manutenzione delle istanze ospitate MLflow, mantenendo al contempo alta la velocità di consegna e consentendo una migliore collaborazione. Siamo lieti di aver collaborato con il team di SageMaker sin dalle prime fasi per consolidare questa offerta di prodotti e allo stesso tempo offrire valore ai nostri ML scientist.”

Karthik Iyer, Direttore, Engineering Machine Learning

KBC

KBC

“In KBC Bank, riteniamo che fornire ai nostri data scientist gli strumenti giusti sia essenziale per promuovere l'innovazione. Un modo efficace per innovare è attraverso la sperimentazione continua, che ci consente di esplorare nuove idee e migliorare i nostri modelli. MLflow fornisce una solida piattaforma per gestire e documentare gli esperimenti. Averlo come servizio gestito migliorerà l'esperienza utente per i nostri data scientist semplificando al contempo la configurazione e la manutenzione della nostra piattaforma di machine learning.”

Thiago Alves, MLOps Engineer

Wallapop

Wallapop

“Per gestire efficacemente il crescente numero di esperimenti di ML e garantire il successo dell'implementazione dei modelli, è fondamentale disporre di un sistema robusto per tracciare gli esperimenti e registrare i modelli. MLflow fornisce una soluzione efficiente per questo scopo, in quanto consente il monitoraggio continuo di tutti gli esperimenti ML in dettaglio, richiedendo modifiche minime alla nostra base di codice. Ciò facilita la selezione del modello ottimale per Wallapop e garantisce un processo di sviluppo ML semplificato ed efficiente. Pertanto, avere questa piattaforma direttamente integrata e gestita all'interno di AWS consente al nostro team di concentrarsi sul valore effettivo delle nostre soluzioni ML, piuttosto che eseguire tutto il lavoro pesante che tale servizio richiederebbe.”

Martí Jordà Roca, Machine Learning Engineer

BigaBid

BigaBid

“Amazon SageMaker ci consente di creare modelli di machine learning distribuiti su larga scala con facilità. Anziché affidarci a processi manuali, possiamo automatizzare la maggior parte dello sviluppo senza problemi all'interno di Amazon SageMaker. Abbiamo bisogno di un modo affidabile per tenere traccia delle prestazioni dei nostri lavori di formazione automatizzata in modo da poter confrontare i lavori, trovare i modelli migliori e implementarli in produzione. L'integrazione con MLflow ci consente di farlo senza dover configurare e gestire autonomamente MLflow. Ciò migliora ulteriormente il nostro flusso di lavoro, fornendo solide funzionalità per il confronto dei modelli e la registrazione dei modelli, migliorando significativamente la nostra efficienza di sviluppo e implementazione.”

Eyal Trabelsi, Data Architect

Toyota Connected

Toyota Connected

“Amazon SageMaker con MLflow ha fornito un grande valore come integrazione semplice ma altamente efficace con SageMaker per il monitoraggio e la gestione degli esperimenti e della qualità dei modelli. L'integrazione nativa di MLflow con Amazon SageMaker ha semplificato le nostre attività di tracciamento e promozione dei modelli. Essendo un servizio gestito, non dobbiamo preoccuparci dell'infrastruttura sottostante, consentendoci di concentrarci sul miglioramento dei nostri modelli e sull'accelerazione del nostro ciclo di sviluppo.”

Sumeet Kishnani, Managing Data Scientist

Thomson Reuters

Thomson Reuters

"Noi di Thomson Reuters siamo in prima linea nello sviluppo dell'IA da oltre 30 anni e ci impegniamo a fornire soluzioni significative che aiutino i nostri clienti a ottenere risultati più velocemente, con un migliore accesso a informazioni affidabili. Per accelerare la nostra innovazione nell'IA generativa, oltre a collaborare con i fornitori di LLM, stiamo anche esplorando la formazione di modelli personalizzati in modo più efficiente con i nostri contenuti unici e proprietari e la nostra esperienza umana. Le librerie di addestramento distribuite di SageMaker HyperPod ci aiutano a migliorare le prestazioni di addestramento dei modelli su larga scala. Inoltre, la sua funzionalità di resilienza consente di risparmiare tempo mentre monitoriamo e gestiamo l'infrastruttura. L'addestramento dei nostri modelli di base su SageMaker HyperPod aumenterà la nostra velocità di commercializzazione e ci aiuterà a fornire soluzioni di qualità per i nostri clienti in tempi rapidi".

Joel Hron, Head of AI and Labs presso Thomson Reuters

“Siamo stati in grado di soddisfare i nostri requisiti di addestramento dei modelli linguistici di grandi dimensioni utilizzando Amazon SageMaker HyperPod. Utilizzando Amazon EKS su SageMaker HyperPod, siamo stati in grado di aumentare verticalmente la capacità ed eseguire facilmente lavori di addestramento, consentendoci di sfruttare i vantaggi degli LLM in aree quali la sintesi e la classificazione giuridica.”

John Duprey, Distinguished Engineer presso Thomson Reuters Labs

Hugging Face

Hugging Face

"Hugging Face ha utilizzato SageMaker HyperPod per creare nuovi importanti modelli di base aperti come StarCoder, IDEFICS e Zephyr, che sono stati scaricati milioni di volte. Le funzionalità di resilienza e le prestazioni appositamente sviluppate di SageMaker HyperPod hanno consentito al nostro team di open science di concentrarsi sull'innovazione e sulla pubblicazione di importanti miglioramenti alle modalità di creazione dei modelli di base, anziché sulla gestione dell'infrastruttura. Ci è particolarmente piaciuto il modo in cui SageMaker HyperPod è in grado di rilevare i guasti all'hardware del ML e di sostituire rapidamente l'hardware difettoso senza interrompere l'addestramento dei modelli in corso. Poiché i nostri team hanno bisogno di innovare rapidamente, questa funzionalità automatizzata di ripristino dei lavori ci ha aiutato a ridurre al minimo le interruzioni durante il processo di addestramento dei modelli di base, permettendoci risparmiare centinaia di ore di addestramento in un solo anno".

Jeff Boudier, Head of Product presso Hugging Face.

Hugging Face

Perplexity AI

"Stavamo cercando l'infrastruttura di ML giusta per aumentare la produttività e ridurre i costi al fine di creare modelli linguistici di grandi dimensioni ad alte prestazioni. Dopo aver condotto con successo alcuni esperimenti, siamo passati ad AWS da altri fornitori di servizi cloud per utilizzare Amazon SageMaker HyperPod. Abbiamo utilizzato HyperPod negli ultimi quattro mesi per creare e perfezionare gli LLM per alimentare il motore di risposta conversazionale Perplexity che risponde alle domande insieme ai riferimenti forniti sotto forma di citazioni. Poiché SageMaker HyperPod monitora automaticamente lo stato del cluster e corregge i guasti della GPU, i nostri sviluppatori hanno la possibilità di concentrarsi sulla creazione di modelli anziché dedicare tempo alla gestione e all'ottimizzazione dell'infrastruttura sottostante. Le librerie parallele integrate di dati e modelli di SageMaker HyperPod ci hanno aiutato a ottimizzare i tempi di addestramento sulle GPU e a raddoppiare la sua velocità di trasmissione effettiva. Di conseguenza, i nostri esperimenti di addestramento possono ora essere eseguiti due volte più velocemente, il che significa che i nostri sviluppatori possono iterare più rapidamente, accelerando lo sviluppo di nuove esperienze di IA generativa per i nostri clienti".

Aravind Srinivas, Co-founder and CEO presso Perplexity AI

Hugging Face

Workday

"Più di 10.000 organizzazioni in tutto il mondo si affidano a Workday per gestire le proprie risorse più preziose: personale e denaro. Forniamo ai clienti soluzioni responsabili e trasparenti selezionando il miglior modello di base che rifletta le politiche della nostra azienda sull'utilizzo responsabile dell'IA. Per attività come la creazione di descrizioni delle mansioni, che devono essere di alta qualità e promuovere le pari opportunità, abbiamo testato la nuova funzionalità di valutazione dei modelli su Amazon SageMaker e siamo soddisfatti della capacità di misurazione dei modelli di base attraverso metriche quali bias, qualità e prestazioni. Non vediamo l'ora di utilizzare questo servizio in futuro per confrontare e selezionare modelli in linea con i nostri rigorosi criteri di IA responsabile".

Shane Luke, Vice President of AI and Machine Learning presso Workday.
 

Hugging Face

Salesforce

"A Salesforce, abbiamo un approccio ecosistemico aperto ai modelli di base e Amazon SageMaker è un componente fondamentale per dimensionare la nostra architettura e velocizzare la commercializzazione. Utilizzando la nuova funzionalità SageMaker Inference, siamo stati in grado di inserire tutti i nostri modelli su un singolo endpoint SageMaker che gestiva automaticamente l'allocazione e la condivisione delle risorse di calcolo, accelerando le prestazioni e riducendo i costi di implementazione dei modelli base".

Bhavesh Doshi, Vice President of Engineering presso Salesforce.
 

Freddy's

Bain & Co.

"Una delle maggiori sfide per Aura è l'estrazione di informazioni significative da un vasto pool di dati professionali non strutturati. Utilizzando modelli linguistici di grandi dimensioni tramite Amazon SageMaker Canvas, abbiamo automatizzato il processo di estrazione dei dati, trasformando il modo in cui le aziende valutano le competenze della forza lavoro e le strutture organizzative. Questo approccio non solo ci ha aiutato a dimensionare l'analisi dei dati, ma ha anche aggirato i limiti dei metodi tradizionali di analisi dei dati, come la corrispondenza delle parole chiave. Utilizzando le nuove funzionalità di preparazione dei dati e di LLM di SageMaker Canvas, Aura è in grado di valutare e confrontare quantitativamente le aziende in base all'efficacia della loro struttura organizzativa, alle competenze della forza lavoro e alle prestazioni in termini di risultati finanziari".

Purna Doddapaneni, CTO of Founder’s Studio and partner presso Bain & Co.

Hugging Face

Wix

"Amazon SageMaker Inference ci aiuta a implementare modelli in più zone di disponibilità ed esegue previsioni su larga scala, online o in modalità batch".

Itamar Keller, Research and Development Team Leader presso Wix

Hugging Face

Qred

"Con una piattaforma centralizzata che utilizza Amazon SageMaker, la conformità è più semplice. È più facile aggiungere dati sensibili quando li abbiamo centralizzati e protetti".

Lezgin Bakircioglu, Chief Technology Officer presso Qred

Stability AI

Stability AI

"Essendo la principale azienda di IA generativa open source, il nostro obiettivo è massimizzare l'accessibilità dell'IA moderna. Stiamo costruendo modelli di base con decine di miliardi di parametri, che richiedono un'infrastruttura in grado di dimensionare prestazioni di addestramento ottimizzate. Con l'infrastruttura gestita e le librerie di ottimizzazione di SageMaker HyperPod, abbiamo la possibilità di ridurre i tempi e i costi di addestramento di oltre il 50%. Ciò rende il nostro addestramento dei modelli più resiliente ed efficiente per creare modelli all'avanguardia più velocemente".

Emad Mostaque, Founder and CEO presso Stability AI

iFood
"Ad iFood, ci sforziamo di soddisfare i clienti attraverso i nostri servizi che utilizzano tecnologie come il machine learning (ML). La creazione di un flusso di lavoro completo e senza interruzioni per sviluppare, addestrare e implementare modelli è stata una parte fondamentale del nostro percorso verso la scalabilità del ML. Pipeline Amazon SageMaker ci aiuta a creare rapidamente più flussi di lavoro ML automatizzati e scalabili e facilita l'implementazione e la gestione efficace dei nostri modelli. SageMaker Pipelines ci consente di ottenere una maggiore efficienza nel nostro ciclo di implementazione. Continuiamo a sottolineare la nostra leadership nell'uso dell'IA/ML per offrire un servizio clienti e un'efficienza superiori con tutte queste nuove capacità di Amazon SageMaker".

Sandor Caetano, Chief Data Scientist presso iFood

Care.com
"Un settore assistenziale forte, dove l'offerta corrisponde alla domanda, è essenziale per la crescita economica, dalla singola famiglia fino al PIL nazionale. Siamo entusiasti di Amazon SageMaker Pipelines, perché crediamo che ci aiuterà a scalare meglio nei nostri team di sviluppo e di data science, utilizzando un set coerente di dati curati che possiamo usare per creare pipeline di modelli di machine learning (ML) end-to-end scalabili, dalla preparazione dei dati all'implementazione. Con le capacità appena annunciate di Amazon SageMaker, possiamo accelerare lo sviluppo e l'implementazione dei nostri modelli di ML per diverse applicazioni, aiutando i nostri clienti a prendere decisioni più informate grazie a suggerimenti in tempo reale più veloci".

Clemens Tummeltshammer, Data Science Manager (Responsabile data science), Care.com

3M
"Grazie al ML, 3M sta migliorando prodotti collaudati, come la carta vetrata, e sta promuovendo l'innovazione in molti altri settori, incluso quello sanitario. Mentre progettiamo di scalare il machine learning in più aree di 3M, vediamo la quantità di dati e modelli crescere rapidamente: raddoppiano ogni anno. Siamo entusiasti delle nuove caratteristiche di SageMaker perché ci aiutano a dimensionare le risorse. Amazon SageMaker Data Wrangler facilita notevolmente la preparazione dei dati per l'addestramento del modello e Amazon SageMaker Feature Store eliminerà la necessità di creare le stesse caratteristiche del modello più e più volte. Infine, Amazon SageMaker Pipelines ci aiuterà ad automatizzare la preparazione dei dati, la creazione del modello e l'implementazione del modello in un flusso di lavoro end-to-end in modo da poter accelerare il time-to-market dei nostri modelli. I nostri ricercatori non vedono l'ora di sfruttare la nuova velocità della scienza in 3M".

David Frazee, Technical Director presso 3M Corporate Systems Research Lab

"Con Amazon SageMaker JumpStart, siamo stati in grado di sperimentare diversi modelli di fondazione, selezionare quelli più adatti alle nostre esigenze nel settore sanitario e avviare rapidamente applicazioni di ML utilizzando l'implementazione del modello conforme agli standard HIPAA di SageMaker. Questo ci ha permesso di migliorare la velocità e il dimensionamento del processo di inserimento dei dati per le prescrizioni e l'assistenza ai clienti".

Alexandre Alves, Sr. Principal Engineer, Amazon Pharmacy

Canva
"In Canva, la nostra missione è consentire al mondo di progettare e rendere facile per chiunque creare qualcosa di bello su qualsiasi dispositivo. Con l'IA generativa, aiutiamo gli utenti a dare vita alle proprie idee con il minor attrito possibile. Grazie a SageMaker JumpStart, siamo in grado di consentire ai nostri team di iniziare con l'IA generativa e testare vari modelli di base. Nel nostro hackathon globale, i Canvanauti sono stati in grado di implementare facilmente un'ampia varietà di modelli di base e di avviare i propri progetti. È stata una parte fondamentale del successo del nostro hackathon".

Nic Wittison, Engineering Lead for AI Products, Canva

Dovetail
"Dovetail aiuta le organizzazioni a migliorare la qualità dei loro prodotti e servizi grazie a una migliore comprensione dei loro clienti. Con Amazon SageMaker JumpStart, siamo in grado di accedere, testare e implementare facilmente modelli di base all'avanguardia. Abbiamo utilizzato AI21 Jurassic-2 Mid per ottimizzare il riepilogo e siamo riusciti a integrarlo nella nostra applicazione SaaS in poche settimane, anziché impiegare mesi per l'implementazione. I nostri clienti possono ora ricavare in modo efficiente e comprendere gli approfondimenti dai loro dati, mantenendo la privacy e la sicurezza dei dati stessi".

Chris Manouvrier, Enterprise Architect Manager presso Dovetail

Lexitas
"I nostri clienti dispongono di migliaia di documenti legali e il processo di analisi di questi documenti è noioso e richiede molto tempo. Spesso non c'è un modo per ottenere rapidamente risposte, ad esempio capire chi ha posto una domanda in una deposizione. Ora, con Amazon SageMaker JumpStart, possiamo accedere a modelli di base all'avanguardia per alimentare i nostri prodotti in modo che i clienti possano affrontare una varietà di casi d'uso, come il rilevamento delle contraddizioni e la ricerca semantica, attraverso migliaia di documenti contemporaneamente. Gli avvocati possono ora sfruttare le trascrizioni precedenti per prepararsi a eventi futuri, mantenendo al contempo rigorose esigenze di sicurezza e conformità".

Jason Primuth, Chief Innovation Officer, Lexitas

Tyson
"In Tyson Foods siamo sempre alla ricerca di nuovi modi per sfruttare il machine learning (ML) nel processo di produzione al fine di incrementare la produttività. Utilizziamo i modelli di classificazione delle immagini per identificare i prodotti della catena di produzione che richiedono etichette di confezionamento. Tuttavia, a cadenza regolare, era necessario addestrare nuovamente i modelli di classificazione delle immagini con i nuovi dati ottenuti dal campo. Amazon SageMaker JumpStart permette ai data scientist di condividere i modelli di ML con gli ingegneri dell'assistenza, così ora possono addestrare essi stessi i modelli con i nuovi dati senza scrivere nuovo codice. Tutto ciò accelera il time-to-market delle soluzioni di ML, promuove le migliorie continue e incrementa la produttività."

Rahul Damineni, Specialist Data Scientist presso Tyson Foods

Mission Automate
"Grazie ad Amazon SageMaker JumpStart, siamo in grado di lanciare soluzioni ML in pochi giorni per soddisfare le esigenze in termini di previsioni basate su machine learning in modo più rapido e affidabile".

Alex Panait, CEO di Mission Automate

Mycase
"Grazie ad Amazon SageMaker JumpStart, riusciamo ad avere punti di partenza migliori che ci consentono di distribuire una soluzione di ML per i nostri casi d'uso in 4-6 settimane anziché 3-4 mesi".

Gus Nguyen, Software Engineer presso MyCase

Pivotree
"Con Amazon SageMaker JumpStart, siamo in grado di creare più rapidamente applicazioni di ML, come il rilevamento automatico di anomalie o la classificazione di oggetti, e avviare soluzioni dal proof of concept alla produzione nel giro di pochi giorni".

Milos Hanzel, Platform Architect presso Pivotree 

Bundesliga
Bundesliga Match Facts, con tecnologia AWS, offre ai tifosi della Bundesliga di tutto il mondo un'esperienza più coinvolgente durante le partite di calcio. Con Amazon SageMaker Clarify la Bundesliga può adesso spiegare in modo interattivo quali sono alcuni dei componenti chiave nel determinare ciò che ha portato il modello ML a prevedere un determinato valore xGoals. Conoscere le rispettive attribuzioni delle caratteristiche e spiegare i risultati aiuta nel debug del modello e aumenta la fiducia negli algoritmi ML, il che si traduce in previsioni di qualità superiore.
 
"Amazon SageMaker Clarify si integra perfettamente con il resto della piattaforma digitale Bundesliga Match Facts ed è parte integrante della nostra strategia a lungo termine di standardizzazione dei nostri flussi di lavoro ML su Amazon SageMaker. Utilizzando le tecnologie innovative di AWS, come il machine learning, per fornire informazioni dettagliate più approfondite e offrire ai fan una migliore comprensione delle decisioni prese in frazioni di secondo sul campo, Bundesliga Match Facts consente agli spettatori di acquisire informazioni più dettagliate sulle decisioni chiave di ogni partita."

Andreas Heyden, vice presidente esecutivo di Digital Innovations per il gruppo DFL

"Con Amazon SageMaker JumpStart, Slack può accedere a modelli di base all'avanguardia per potenziare l'IA di Slack, dando priorità alla sicurezza e alla privacy. I clienti di Slack possono ora effettuare ricerche in modo più intelligente, riassumere istantaneamente le conversazioni ed essere al massimo della loro produttività".

Jackie Rocca, VP Product, AI presso Slack

capcom
CAPCOM è una società di giochi giapponese famosa per titoli di giochi come la serie Monster Hunter e Street Fighter. Per mantenere la soddisfazione degli utenti, CAPCOM doveva garantire la qualità del gioco e identificare possibili churner e le loro tendenze.
 
"La combinazione tra AutoGluon e Amazon SageMaker Clarify consente al nostro modello del tasso di abbandono dei clienti di effettuare delle previsioni con una precisione del 94%. SageMaker Clarify ci aiuta a comprendere il comportamento del modello fornendo la spiegabilità tramite i valori SHAP. Con SageMaker Clarify abbiamo ridotto i costi delle operazioni di calcolo dei valori SHAP del 50% rispetto al calcolo locale. La soluzione congiunta ci ha fornito l'abilità di comprendere meglio il modello e aumentare la soddisfazione dei clienti con un tasso di precisione maggiore e costi nettamente inferiori".

Masahiro Takamoto, Head of Data Group, CAPCOM

DOMO
Domo è il Business Cloud, che trasforma il modo in cui viene gestita l'azienda offrendo una BI moderna per tutti. Con Domo, i processi critici che richiedevano settimane, mesi o più ora possono essere eseguiti al volo, in pochi minuti o secondi, su scala incredibile.
 
"Domo offre una suite scalabile di soluzioni di data science che possono essere utilizzate facilmente da chiunque all'interno dell'organizzazione. Con Clarify i nostri clienti hanno accesso a importanti informazioni dettagliate relative al modo in cui i loro modelli di IA effettuano le previsioni. La combinazione tra Clarify e Domo aiuta ad aumentare la velocità e l'intelligenza della IA per i nostri clienti mettendo a disposizione il potere dell'intelligenza artificiale a chiunque sia all'interno della loro azienda ed ecosistema".

Ben Ainscough, dottore di ricerca, Responsabile IA e data science, Domo

Varo

Varo Bank è una banca digitale con sede negli Stati Uniti che utilizza l'IA/ML per aiutare a prendere decisioni rapide e basate sul rischio al fine di fornire ai clienti i suoi prodotti e servizi innovativi.

"Varo si impegna molto per la spiegabilità e la trasparenza dei nostri modelli di ML e siamo entusiasti di vedere i risultati di Amazon SageMaker Clarify nel portare avanti questi sforzi".

Sachin Shetty, Head of Data Science presso Varo Money

Aurora

LG AI Research mira a guidare la prossima era dell'IA utilizzando Amazon SageMaker per addestrare e implementare modelli di ML più velocemente.

"Di recente abbiamo presentato Tilda, l'artista di IA basata su EXAONE, un sistema di IA super gigante in grado di elaborare 250 milioni di set di dati di coppie immagine-testo ad alta definizione. L'IA multi-modello consente a Tilda di creare una nuova immagine in autonomia, con la sua capacità di esplorare oltre il linguaggio che percepisce. Amazon SageMaker è stato essenziale nello sviluppo di EXAONE, grazie alle sue capacità di dimensionamento e addestramento distribuito. In particolare, a causa dell'enorme calcolo richiesto per addestrare questa IA super gigante, è molto importante disporre di un'elaborazione parallela efficiente. Inoltre, avevamo la necessità di gestire continuamente dati su larga scala ed essere flessibili per rispondere a quelli appena acquisiti. Utilizzando l'addestramento dei modelli Amazon SageMaker e le librerie di formazione distribuite, abbiamo ottimizzato l'addestramento distribuito e addestrato il modello il 59% più velocemente, senza apportare modifiche importanti al nostro codice di addestramento".

Seung Hwan Kim, Vice President and Vision Lab Leader presso LG AI Research

Aurora
"Ad AI21 Labs aiutiamo le aziende e gli sviluppatori a utilizzare modelli linguistici all'avanguardia per rimodellare il modo in cui i loro utenti interagiscono con il testo, senza il bisogno di ricorrere a competenze in NLP. La nostra piattaforma per sviluppatori, AI21 Studio, fornisce accesso alla generazione di testo, al riepilogo intelligente e persino alla generazione di codice, il tutto basato sulla nostra famiglia di modelli linguistici di grandi dimensioni. Il nostro modello Jurassic-Grande (TM) con 17 miliardi di parametri è stato recentemente addestrato utilizzando Amazon SageMaker. Amazon SageMaker ha reso il processo di addestramento dei modelli più semplice ed efficiente e ha funzionato perfettamente con la libreria DeepSpeed. Di conseguenza, siamo stati in grado di dimensionare facilmente i processi di addestramento distribuiti a centinaia di GPU Nvidia A100. Il modello Grande offre una qualità di generazione del testo pari al nostro modello molto più ampio da 178 miliardi di parametri, a un costo di inferenza molto inferiore. Pertanto, i nostri clienti che utilizzano Jurassic-Grande in produzione hanno la possibilità di servire milioni di utenti in tempo reale su base giornaliera e di godere dei vantaggi della migliore economia delle unità senza sacrificare l'esperienza utente". 

Dan Padnos, Vice President Architecture presso AI21 Labs

Aurora

Con l'aiuto di Amazon SageMaker e della libreria Amazon SageMaker Distributed Data Parallel (SMDDP), Torc.ai, leader nel settore dei veicoli autonomi dal 2005, sta commercializzando camion a guida autonoma per un transito sicuro, duraturo e a lungo raggio nel settore del trasporto merci.

"Il mio team è ora in grado di eseguire facilmente lavori di addestramento distribuiti su larga scala utilizzando l'addestramento dei modelli Amazon SageMaker e la libreria Amazon SageMaker Distributed Data Parallel (SMDDP), che include terabyte di dati di addestramento e modelli con milioni di parametri. L'addestramento dei modelli distribuiti di Amazon SageMaker e l'SMDDP ci hanno aiutato a dimensionare senza problemi, senza la necessità di gestire l'infrastruttura di addestramento. Ha ridotto i tempi di addestramento dei modelli da diversi giorni a poche ore, consentendoci di comprimere il nostro ciclo di progettazione e aggiungere nuove funzionalità ai veicoli autonomi della nostra flotta più velocemente che mai".

Derek Johnson, Vice President of Engineering presso Torc.ai

Aurora

Sophos, leader mondiale in soluzioni e servizi di sicurezza informatica di nuova generazione, utilizza Amazon SageMaker per addestrare i suoi modelli di apprendimento automatico in modo più efficiente.

"La nostra potente tecnologia rileva ed elimina i file intrisi di malware in modo astuto. L'utilizzo di modelli XGBoost per elaborare set di dati di dimensioni di più terabyte, tuttavia, richiedeva molto tempo e talvolta semplicemente non era possibile con uno spazio di memoria limitato. Con l'addestramento distribuito di Amazon SageMaker, abbiamo la possibilità di addestrare con successo un modello XGBoost leggero che risulta essere fino a 25 volte più piccolo su disco e fino a 5 volte più piccolo in memoria rispetto al suo predecessore. Utilizzando la Regolazione automatica modelli di Amazon SageMaker e l'addestramento distribuito sulle istanze Spot, siamo in grado di modificare e riqualificare i modelli in modo rapido ed efficace senza agire sull'infrastruttura di addestramento sottostante necessaria per impiegare la scalabilità orizzontale di set di dati così grandi".

Konstantin Berlin, Head of Artificial Intelligence presso Sophos

Leggi il blog »

Aurora
"Il machine learning avanzato e la simulazione su larga scala di Aurora sono fondamentali per sviluppare la nostra tecnologia in modo sicuro e rapido, e AWS offre le alte prestazioni di cui abbiamo bisogno per mantenere i nostri progressi. Con la sua scalabilità virtualmente illimitata, AWS supporta milioni di test virtuali per convalidare le funzionalità del driver Aurora in modo che possa navigare in sicurezza negli innumerevoli casi limite della guida nel mondo reale". 

Chris Urmson, CEO presso Aurora

Guarda il video »

Hyundai
"Utilizziamo modelli di visione artificiale per eseguire la segmentazione delle scene, che è importante per la loro comprensione. Una volta ci volevano 57 minuti per addestrare il modello per un'epoca, il che comportava rallentamenti. Utilizzando la libreria di parallelismo dei dati di Amazon SageMaker e con l'aiuto di Amazon ML Solutions Lab, siamo stati in grado di addestrare in 6 minuti con codice di addestramento ottimizzato su istanze 5 ml.p3.16xlarge. Riducendo di 10 volte il tempo di addestramento, possiamo dedicare più tempo alla preparazione dei dati durante il ciclo di sviluppo". 

Jinwook Choi, Senior Research Engineer presso Hyundai Motor Company

Leggi il blog »

Latent Space
"A Latent Space, stiamo costruendo un motore di gioco con rendering neurale in cui chiunque può creare alla velocità del pensiero. Spinti dai progressi nella modellazione linguistica, stiamo lavorando per incorporare la comprensione semantica del testo e delle immagini per determinare cosa generare. Il nostro obiettivo attuale è utilizzare il recupero delle informazioni per aumentare la formazione di modelli su larga scala, per la quale disponiamo di sofisticate pipeline ML. Questa configurazione rappresenta una sfida aggiuntiva all'addestramento distribuito poiché più origini dati e modelli vengono addestrati contemporaneamente. Pertanto, stiamo sfruttando le nuove funzionalità di addestramento distribuito di Amazon SageMaker per dimensionare in modo efficiente l'addestramento dei modelli generativi di grandi dimensioni".

Sarah Jane Hong, Cofounder/Chief Science Officer presso Latent Space

Leggi il blog »

musixmatch
"Musixmatch utilizza Amazon SageMaker per creare modelli di elaborazione del linguaggio naturale (NLP) e di elaborazione audio e sta sperimentando Hugging Face con Amazon SageMaker. Abbiamo scelto Amazon SageMaker perché consente ai data scientist di creare, addestrare e ottimizzare modelli in maniera rapida e iterativa senza doversi preoccupare della gestione dell'infrastruttura sottostante, il che significa che i data scientist possono lavorare in modo più rapido e indipendente. Con la crescita dell'azienda, sono aumentati anche i nostri requisiti per addestrare e mettere a punto modelli di NLP più grandi e complessi. Siamo sempre alla ricerca di modi per accelerare i tempi di addestramento riducendone al contempo i costi, motivo per cui siamo entusiasti del Compilatore di addestramento di Amazon SageMaker. Il Compilatore di addestramento di SageMaker offre modi più efficienti per utilizzare le GPU durante il processo di addestramento e, grazie alla perfetta integrazione tra Compilatore di addestramento di SageMaker, PyTorch e librerie di alto livello come Hugging Face, abbiamo registrato un significativo miglioramento dei tempi di addestramento dei nostri modelli basati su trasformatori, che sono passati da settimane a giorni, nonché una riduzione dei costi di addestramento".

Loreto Parisi, Artificial Intelligence Engineering Director presso Musixmatch

AT&T

AT&T Cybersecurity ha migliorato il rilevamento delle minacce richiedendo previsioni quasi in tempo reale utilizzando gli endpoint multi-modello di Amazon SageMaker.

"Gli endpoint multi-modello di Amazon SageMaker non sono solo convenienti, ma ci offrono anche un piccolo miglioramento delle prestazioni grazie alla semplificazione del modo in cui archiviamo i nostri modelli".

Matthew Schneid Chief Architect presso AT&T

Leggi di più »
Forethought

Forethought Technologies, un fornitore di soluzioni di IA generativa per il servizio clienti, ha ridotto i costi fino all'80% utilizzando Amazon SageMaker.

"Con la migrazione agli endpoint multi-modello di Amazon SageMaker, abbiamo ridotto i costi fino al 66%, offrendo al contempo una migliore latenza e tempi di risposta migliori per i clienti".

Jad Chamoun, Director of Core Engineering presso Forethought Technologies

Leggi di più »
Bazaarvoice

Bazaarvoice ha ridotto i costi di inferenza di ML dell'82% utilizzando l'Inferenza serverless Amazon SageMaker.

"Utilizzando l'Inferenza serverless SageMaker, siamo in grado di applicare il ML in modo efficiente su larga scala, ottenendo rapidamente molti modelli a un costo ragionevole e con un basso sovraccarico operativo".

Lou Kratz, Principal Research Engineer presso Bazaarvoice

Leggi di più »
Tapjoy

Tapjoy utilizza Amazon SageMaker per implementare modelli di ML in pochi giorni anziché in mesi

"In precedenza impiegavamo dai tre ai sei mesi per addestrare, costruire e implementare un modello. Ora, con SageMaker, possiamo farlo nel giro di una settimana, forse anche meno".

Nick Reffitt, Vice President of Data Science and Engineering presso Tapjoy

Leggi di più »
Zendesk

Zendesk ha ospitato migliaia di modelli di ML negli endpoint multi-modello (MME) di Amazon SageMaker per la funzionalità Suggested Macros (Macro suggerite), ottenendo un risparmio del 90% sui costi di inferenza rispetto agli endpoint dedicati.

"Abbiamo implementato migliaia di modelli di ML, personalizzati per i nostri oltre 100.000 clienti, utilizzando gli endpoint multi-modello (MME) di Amazon SageMaker. Con i MME SageMaker, abbiamo creato una funzionalità di inferenza multi-tenant e compatibile con SaaS per ospitare più modelli per endpoint, riducendo i costi di inferenza del 90% rispetto agli endpoint dedicati".

Chris Hausler, Head of AI/ML presso Zendesk

Leggi di più »

Amazon Pharmacy

"Con Amazon SageMaker JumpStart, siamo stati in grado di sperimentare diversi modelli di fondazione, selezionare quelli più adatti alle nostre esigenze nel settore sanitario e avviare rapidamente applicazioni di ML utilizzando l'implementazione del modello conforme agli standard HIPAA di SageMaker. Questo ci ha permesso di migliorare la velocità e il dimensionamento del processo di inserimento dei dati per le prescrizioni e l'assistenza ai clienti".

Alexandre Alves, Sr. Principal Engineer presso Amazon Pharmacy

Intuit

"Grazie ad Amazon SageMaker, siamo in grado di velocizzare le nostre iniziative di intelligenza artificiale in modo scalabile sviluppando e implementando i nostri algoritmi sulla piattaforma. Creiamo nuovi algoritmi di intelligenza artificiale e apprendimento automatico su vasta scala e li distribuiamo su questa piattaforma per risolvere problematiche complesse e facilitare la prosperità dei nostri clienti".

Ashok Srivastava, Chief Data Officer presso Intuit

GE Healthcare

Con lo sfruttamento di dati e analisi su hardware, software e biotecnologie, GE Healthcare sta trasformando il settore sanitario dando migliori risultati ai fornitori di servizi ed ai pazienti. 

Amazon SageMaker consente a GE Healthcare di accedere ai potenti strumenti e servizi di intelligenza artificiale per il progresso e il miglioramento della cura dei pazienti. La scalabilità di Amazon SageMaker e la sua capacità di integrarsi nei servizi AWS nativi sono per noi un enorme incremento di valore. Siamo entusiasti della continua collaborazione fra GE Health Cloud e Amazon SageMaker, che fornirà migliori risultati per i nostri fornitori partner nel settore sanitario e una migliore cura del paziente."

Sharath Pasupunuti, responsabile progettazione AI, GE Healthcare

ADP, Inc.

ADP è una società di tecnologia leader a livello globale che fornisce soluzioni di gestione del capitale umano. ADP DataCloud sfrutta i dati sulla forza di ADP di oltre 30 milioni di dipendenti per produrre visioni realizzabili che possono aiutare le società a prendere decisioni in tempo reale e gestire al meglio il lavoro.

"Trovare e attrarre talenti è molto difficile;per questo, continuiamo a portare avanti ADP DataCloud con le funzionalità di intelligenza artificiale per aiutare i dipendenti a costruire dei team solidi. Utilizziamo il machine learning di AWS, tra cui Amazon SageMaker, per identificare rapidamente i pattern della forza lavoro e predire i risultati prima che accadano, ad esempio per quanto riguarda il fatturato dei dipendenti o l'impatto della crescita sui salari. Sfruttando AWS come piattaforma principale per l'intelligenza artificiale e il machine learning, abbiamo ridotto i tempi di distribuzione dei modelli di machine learning da 2 settimane a 1 un solo giorno."

Jack Berkowitz, SVP, Product Development – ADP, Inc.

BASF Digital Farming

L’obiettivo di BASF Digital Farming è di incoraggiare gli agricoltori a prendere decisioni più intelligenti e di contribuire a risolvere la sfida di sfamare una popolazione in aumento, riducendo al tempo stesso l’impronta ecologica.

“Amazon SageMaker e la relativa tecnologia AWS supportano una sperimentazione rapida e forniscono funzionalità facili da utilizzare e API che riducono gli ostacoli all’adozione del machine learning. In questo modo, siamo in grado di sbloccare rapidamente tutto il potenziale di valore dei casi d’uso del machine learning.

Dott. Christian Kerkhoff, Manager Data Automation - BASF Digital Farming GmbH

Cerner

Cerner

Cerner Corporation è una società globale del settore sanitario e tecnologico che fornisce una vasta gamma di soluzioni, servizi, dispositivi e hardware nell’ambito delle tecnologie dell’informazione sanitaria.

"Cerner è orgogliosa di promuovere l'innovazione portata da intelligenza artificiale e machine learning su una vasta gamma di esperienze cliniche, finanziarie e operative. Grazie alle nuove funzionalità create dall’ecosistema di machine learning di Cerner e dal Servizio Cerner di elaborazione del linguaggio naturale e abilitate dalla tua collaborazione con AWS, stiamo accelerando l’innovazione scalabile per tutti i nostri clienti. Amazon SageMaker è un componente importante del processo che consente a Cerner di rispettare il nostro proposito di fornire valore per i nostri clienti tramite IA/ML. Inoltre, Amazon SageMaker fornisce a Cerner la capacità di sfruttare framework diversi come TensorFlow e PyTorch e di integrarsi con vari servizi AWS.”

Sasanka Are, PhD, Vicepresidente - Cerner

600x400-dow-jones_logo.jpg

Dow Jones

Dow Jones & Co, è un fornitore globale di notizie e informazioni aziendali, che distribuisce contenuti a utenti e organizzazioni tramite giornali, siti Web, applicazioni per dispositivi mobili, video, newsletter, riviste, database proprietari, conferenze e radio.

"Dato che Dow Jones continua a concentrarsi sull'integrazione dell'apprendimento automatico dei nostri prodotti e servizi, AWS è un ottimo partner. Per preparare la strada al nostro recente Machine Learning Hackathon, il team AWS ha formato i partecipanti su Amazon SageMaker e Amazon Rekognition e ha offerto una giornata di supporto a tutti i team. Il risultato è stato che i nostri team hanno sviluppato delle ottime idee di applicazione dell'apprendimento automatico, molte delle quali continueranno a essere sviluppate in AWS. L'evento ha avuto un enorme successo ed è l'esempio perfetto di un'ottima collaborazione".

Ramin Beheshti, responsabile dello sviluppo prodotti del gruppo e direttore tecnico presso Dow Jones

Advanced Microgrid Solutions

Advanced Microgrid Solutions

Advanced Microgrid Solutions (AMS) è una piattaforma di energia e società di servizi che mira ad accelerare il processo di trasformazione mondiale verso un'economia di energia pulita, facilitandone la distribuzione e l'ottimizzazione delle risorse. NEM utilizza un mercato Spot in cui, ogni 5 minuti, tutte le parti fanno un'offerta per consumare/fornire energia. Ciò richiede una stima delle previsioni della domanda e l'elaborazione di offerte dinamiche in pochi minuti, così come l'elaborazione di enormi quantità di dati di mercato. Per risolvere questa sfida, AMS ha creato un modello di deep learning utilizzando TensorFlow in Amazon SageMaker. Questo prevede l’ottimizzazione automatica dei modelli di Amazon SageMaker per rilevare i migliori parametri di modello e costruirne uno in poche settimane. Tale modello ha dimostrato un miglioramento delle previsioni di mercato su tutti i prodotti del settore energetico relativamente alla misurazione dell'energia netta, il che si tradurrà presto in significativi livelli di efficienza.

ProQuest

ProQuest

ProQuest si occupa della collezione più grande al mondo di riviste, ebook, fonte primarie, saggi, notizie e video, e crea eccellenti soluzioni per il flusso di lavoro che consentono alle biblioteche di acquistare e arricchire le proprie collezioni. I prodotti e i servizi di ProQuest sono usati nelle biblioteche accademiche, d’istruzione primaria e secondaria, pubbliche, corporative e governamentali di 150 paesi.

"Collaboriamo con AWS per creare un'esperienza utente video più accattivante per gli utenti delle biblioteche, consentendo loro di ottenere risultati più pertinenti. Lavorando con AWS ML Solutions Lab, abbiamo testato diversi algoritmi creati tramite Amazon SageMaker, abbiamo messo a punto dei modelli che utilizzano l'ottimizzazione dell'iperparametro e abbiamo automatizzato l'implementazione di modelli machine learning (ML). Siamo soddisfatti dei risultati finora ottenuti e stiamo attualmente prendendo in considerazione le tecnologie ML anche per altri prodotti".

Allan Lu, Vice President of Research Tools, Services & Platforms, ProQuest

Celgene

Celgene è un’azienda farmaceutica a livello globale, impegnata nel miglioramento delle vite dei pazienti in tutto il mondo. Al centro dell’attenzione vi è la scoperta, lo sviluppo e la commercializzazione delle terapie innovative per i pazienti affetti da tumore, malattie immuno-infiammatorie e altre esigenze mediche non ancora soddisfatte.

“L’idea di Celegene è quella di distribuire cure mediche profondamente innovative, che possono cambiare e migliorare la vita dei pazienti in tutto il mondo. Con Amazon SageMaker e Apache MXNet è diventato più semplice e più veloce realizzare e formare modelli di apprendimento approfondito per sviluppare processi e soluzioni; siamo in grado di migliorare in modo più semplice nella scoperta di cure e nella produzione di farmaci. Utilizzare istanze SageMaker e Amazon EC2 P3 ha accelerato la produttività e diminuito il tempo necessario per formare i modelli, permettendo al team di focalizzarsi su ricerche e scoperte rivoluzionarie".

Lance Smith, Direttore, Celgene

Atlas Van Lines

Atlas Van Lines è la seconda ditta di traslochi con furgoni del Nord America, creata nel 1948 da un gruppo di imprenditori del settore dei traslochi e del magazzinaggio. L'organizzazione è stata sviluppata con l'unico obiettivo di effettuare traslochi da costa a costa aderendo alla regola d'oro del settore. Oltre a una solida presenza, Atlas vanta severi requisiti di qualità per gli agenti che sorpassano quelli del settore.

Durante i periodi di picco dei traslochi, la rete di agenti Atlas collabora attraverso i mercati per soddisfare la domande dei clienti. Tradizionalmente la stima della capacità era manuale e richiedeva un lavoro intenso. Si basava sul buon senso e sull'istinto delle risorse con molti anni di esperienza. Atlas aveva i dati cronologici dal 2011 in poi e voleva trovare un modo di calibrare in modo dinamico la capacità e i prezzi in base alle future richieste del mercato.

Atlas ha collaborato con Pariveda Solutions, un partner di consulenza APN Premier, per rendere possibile una capacità e una gestione dei prezzi proattive nel settore dei traslochi a lunga percorrenza. Pariveda ha preparato i dati, sviluppato e valutato il modello di machine learning e ottimizzato le prestazioni. Utilizzando Amazon SageMaker per addestrare e ottimizzare il modello, l'ha poi esportato usando la natura modulare di Amazon SageMaker per eseguirlo con Amazon EC2.

Edmunds

Edmunds

Edmunds.com è un sito Web di vendita di auto che offre informazioni dettagliate continuamente aggiornate su veicoli a 20 milioni di visitatori al mese.

"Abbiamo intrapreso l'iniziativa strategica di mettere l'apprendimento automatico nelle mani dei nostri ingegneri. Amazon SageMaker ha svolto un ruolo fondamentale nel raggiungimento del nostro obiettivo, perché ha permesso agli ingegneri di creare, addestrare e implementare modelli e algoritmi di apprendimento automatico in modo scalabile. Siamo entusiasti di vedere come Edmunds userà SageMaker per creare nuove soluzioni nell'organizzazione per i nostri clienti".

Stephen Felisan, direttore informatico presso Edmunds.com

Hotels.com

Hotels.com

Hotels.com è un marchio globale leader dell'industria alberghiera che gestisce 90 siti Web localizzati in 41 lingue.

"Hotels.com è sempre interessato alle novità che permettono maggiore rapidità operativa e lo sfruttamento delle tecnologie più recenti. L'addestramento distribuito, gli algoritmi ottimizzati e gli iperparametri integrati di Amazon SageMaker consentono al mio team di creare rapidamente modelli più accurati sui nostri set di dati di maggiori dimensioni, riducendo in modo significativo il tempo necessario per trasferire un modello in produzione. È sufficiente una chiamata API. Amazon SageMaker ridurrà in modo considerevole la complessità dell'apprendimento automatico, consentendoci di migliorare più velocemente l'esperienza di utilizzo per i nostri clienti".

Matt Fryer, vicepresidente e chief data science officer presso Hotels.com ed Expedia Affiliate Network

Formosa Plastics

Formosa Plastics Corporation è un fornitore di prodotti petrolchimici e resine plastiche in crescita e integrato verticalmente. Formosa Plastics offre una linea completa di resine in polivinilcloruro, polietilene e polipropilene, soda caustica e altri prodotti petrolchimici che offrono la consistenza, le prestazioni e la qualità richieste dai clienti.

"Formosa Plastics è una delle principali aziende petrolchimiche di Taiwan e si colloca tra i principali produttori mondiali di materie plastiche. Abbiamo deciso di cominciare a utilizzare il machine learning per ridurre i costi del lavoro manuale permettendo il rilevamento più accurato dei difetti, abbiamo scelto AWS in qualità di migliore fornitore di servizi cloud per aiutarci a farlo. L'AWS ML Solutions Lab ha lavorato con noi in ogni fase del processo, da un primo workshop per definire i casi d'uso aziendali fino alla progettazione e selezione dei modelli ML appropriati per la distribuzione attuale. Grazie ad Amazon SageMaker, la soluzione di machine learning ha ridotto della metà il tempo utilizzato dai nostri dipendenti per le operazioni manuali di rilevamento. Con l'aiuto del Solutions Lab siamo ora in grado di ottimizzare autonomamente il modello di SageMaker a seconda del cambiamento delle condizioni".

Bill Lee, Assistant Vice President, Formosa Plastics Corporation

Voodoo

Voodoo è un'azienda di videogiochi mobile leader del settore con oltre 2 miliardi di download di giochi e oltre 400 milioni di utenti attivi (MAU) al mese. L'azienda possiede una piattaforma pubblicitaria personale e sta utilizzando il machine learning per migliorare la precisione e la qualità degli annunci mostrati ai propri utenti.

"Voodoo vuole creare engagement con la propria base di giocatori, che comprende milioni di utenti ed è in crescita. Standardizzando i carichi di lavoro di machine learning e intelligenza artificiale su AWS, possiamo ripetere i processi al ritmo e nelle dimensioni di cui abbiamo bisogno continuando a migliorare l'azienda e coinvolgendo i giocatori. Grazie all'utilizzo di Amazon SageMaker possiamo decidere in tempo reale quale ad vogliamo mostrare ai nostri giocatore e invocare un endpoint oltre 100 milioni di volte da oltre 30 milioni di utenti ogni giorno, con un risultato di quasi un miliardo di previsioni al giorno. Con il machine learning di AWS siamo riusciti a mettere in produzione un modello preciso in meno di una settimana con il supporto di un piccolo team e siamo riusciti a lavorarci in modo continuativo mentre il nostro team e la nostra azienda crescevano."

Aymeric Roffé, Chief Technology Officer – Voodoo

Regit

Regit, in precedenza Motoring.co.uk, è un'azienda tecnologica del settore automobilistico e il principale servizio online del Regno Unito per gli automobilisti. Fornisce servizi digitali di gestione delle auto basati sulla targa di immatricolazione e invia ai conducenti promemoria informativi, ad esempio, sulla tassa del MOT (Ministero dei Trasporti), l'assicurazione e i ritiri.

Regit ha collaborato con Peak Business Insight, un partner di consulenza APN di livello Advanced, per applicare "modelli di Machine Learning categorici" che gestiscono simultaneamente la categoria e i dati variabili per fornire stime sulla probabilità che un utente cambi automobile, risultando in una vendita per Regit.

Peak ha utilizzato i servizi AWS come Amazon SageMaker per l'acquisizione, la modellazione e l'output dei dati. Amazon SageMaker gestisce 5.000 richieste API al giorno per Regit, calibrando e adattando perfettamente i dati secondo i requisiti e gestendo la distribuzione dei principali risultati del punteggio. Nel frattempo, le istanze di Amazon Redshift e Amazon Elastic Compute Cloud (Amazon EC2) ottimizzano in modo efficiente e continuo le prestazioni e i risultati dei modelli. Grazie a Peak, Regit è stata in grado di stimare quali dei suoi 2,5 milioni di utenti hanno intenzione di cambiare automobile e in quale momento. In questo modo può servire i clienti in modo più personalizzato e mirato, aumentando il fatturato del call center di più di un quarto.

Realtor.com

Realtor.com

Il network Move, Inc., che include realtor.com®, Doorsteps® e Moving.com™, fornisce informazioni, strumenti e competenze professionali nel settore immobiliare tramite siti Web e applicazioni per dispositivi mobili per i clienti e i professionisti del settore immobiliare.

"Siamo convinti che aggiungere Amazon SageMaker al kit di strumenti di realtor.com® abbia cambiato il modo in cui accompagniamo i clienti nel processo di acquisizione immobiliare". I flussi di lavoro di apprendimento automatico che storicamente impiegavano molto tempo, come l'addestramento e l'ottimizzazione dei modelli, possono essere effettuati in modo più efficiente e da un maggior numero di sviluppatori, consentendo ai nostri data scientist e analisti di concentrarsi sulla creazione di una migliore esperienza per i nostri utenti".

Vineet Singh, Chief Data Officer e vice presidente senior presso Move, Inc.

Grammarly

Grammarly

Ogni giorno gli algoritmi di Grammarly aiutano milioni di persone a comunicare in modo efficace fornendo assistenza scritta su numerose piattaforme su diversi dispositivi, tramite una combinazione di elaborazione del linguaggio naturale e tecnologie avanzate di apprendimento automatico.

"Amazon SageMaker ci ha permesso di sviluppare i nostri modelli TensorFlow in un ambiente di addestramento distribuito. I nostri flussi di lavoro si integrano inoltre con Amazon EMR per la pre-elaborazione, consentendoci di estrarre i nostri dati da Amazon S3, filtrati con EMR e Spark da un notebook Jupyter, e quindi eseguire l'addestramento in Amazon SageMaker con lo stesso notebook. SageMaker inoltre si adatta ai nostri diversi requisiti di produzione. Possiamo eseguire inferenze direttamente su SageMaker o, se ci occorre soltanto il modello, lo scarichiamo da S3 ed eseguiamo inferenze sulle nostre implementazioni di dispositivi mobili per i clienti iOS e Android".

Stanislav Levental, Technical Lead presso Grammarly

Slice Labs

Slice Labs, con sede a New York e operazioni in tutto il mondo, è il primo fornitore di assicurazione on demand tramite piattaforma cloud. Slice propone i suoi servizi al mercato B2C con singole offerte assicurative on demand nonché al mercato B2B, dove consente alle aziende di creare prodotti assicurativi digitali intuitivi.

"In Slice siamo perfettamente consapevoli della natura mutevole delle esigenze assicurative dei clienti e abbiamo scelto AWS come la nostra piattaforma cloud di riferimento grazie alla sua ampia proposta di servizi, alla sua flessibilità e alla sua solida reputazione tra gli assicuratori. Utilizziamo una vasta gamma di servizi AWS per supportare la nostra attività, tra cui il machine learning AWS per agevolare la messa in connessione dei clienti con le migliori opzioni assicurative per le loro esigenze. Nel nostro lavoro con gli assicuratori e le aziende tecnologiche che vogliono creare e promuovere prodotti assicurativi intelligenti, abbiamo riscontrato eccezionali risparmi sui costi e sensazionali vantaggi produttivi con AWS. Ad esempio, abbiamo ridotto i tempi di approvvigionamento del 98% passando da 47 giorni a 1 solo giorno. Siamo elettrizzati all'idea di continuare ad ampliarci sia geograficamente sia in termini del nostro impiego del cloud con AWS."

Philippe Lafreniere, Chief Growth Officer - Slice Labs

DigitalGlobe

DigitalGlobe

"In qualità di provider leader mondiale nella creazione e l'analisi di immagini ad alta risoluzione della Terra, DigitalGlobe gestisce ogni giorno enormi volumi di dati.

"In qualità di provider leader mondiale nella creazione e l'analisi di immagini ad alta risoluzione della Terra, DigitalGlobe gestisce ogni giorno enormi volumi di dati. DigitalGlobe semplifica il processo per la ricerca, l’accesso e l’esecuzione del calcolo nella nostra libreria di immagini di 100 PB, archiviata nel cloud di AWS, per applicare l’apprendimento approfondito alle immagini satellitari. L'obiettivo è utilizzare Amazon SageMaker per addestrare modelli sui petabyte di immagini tramite notebook Jupyter in hosting, consentendo agli utenti della piattaforma per Big Data geospaziali GBDX di DigitalGlobe di creare con la massima intuitività un modello e implementarlo su vasta scala in un ambiente scalabile e distribuito".

Dott. Walter Scott, direttore tecnologico di Maxar Technologies e fondatore di DigitalGlobe

Intercom

Intercom

I primi prodotti di messaggistica di Intercom si integrano perfettamente con i siti Web e le app mobili di altre aziende per aiutarle ad acquisire, coinvolgere e supportare i clienti. Fondata nel 2011, la società ha uffici a San Francisco, Londra, Chicago e Dublino.

"In Intercom, abbiamo un team crescente di data scientist e ingegneri orientati ai dati, e spesso vogliamo eseguire l'iterazione rapidamente ed esplorare nuove soluzioni per i prodotti basati sui dati. Prima di Amazon SageMaker, abbiamo provato un sacco di opzioni diverse per creare questi prodotti, ma ognuna presentava delle sfide: la condivisione del codice era difficile, la verifica dei grandi set di dati era lenta e il provisioning e la gestione dell'hardware erano problematici. SageMaker è arrivato e ha risolto tutto questo. Lo utilizziamo in particolare per sviluppare algoritmi per le nostre piattaforme di ricerca e funzionalità di machine learning e troviamo che i Jupyter Notebooks ospitati da SageMaker ci consentono di costruire ed eseguire l'iterazione rapidamente. Fondamentalmente, il fatto che SageMaker sia un servizio gestito consente al mio team di concentrarsi sull'attività da svolgere. Amazon SageMaker è un servizio estremamente prezioso per noi di Intercom e siamo entusiasti di continuare a utilizzarlo sempre di più, man mano che la nostra azienda cresce".

Kevin McNally, Senior Data Scientist, Machine Learning presso Intercom

Kinect Energy Group

Kinect Energy Group

Kinect Energy Group è una società sussidiaria di World Fuel Services, una compagnia Fortune 100 che fornisce servizi di consulenza in materia di approvvigionamento energetico, fornitura e soluzioni per la gestione di transazioni e pagamenti a clienti industriali e commerciali, principalmente nei settori aeronautico, marittimo e del trasporto su terra. Kinect Energy è un fornitore di energia chiave di Nordic e dipende dalle risorse di energia naturali relative al clima ventoso della regione.

L'azienda ha da poco fatto un enorme passo in avanti grazie all'introduzione di numerosi servizi di intelligenza artificiale (IA) e machine learning (ML) di AWS. Con Amazon SageMaker la compagnia è in grado di prevedere le tendenze meteorologiche imminenti e quindi i prezzi dell'elettricità dei mesi a seguire, consentendo un trading energetico a lungo raggio senza precedenti, che rappresenta un approccio decisamente lungimirante e innovativo per l'intero settore.

"Abbiamo cominciato a utilizzare Amazon SageMaker e grazie all'aiuto dei team di AWS ML Solutions e Solutions Architecture abbiamo dato il via con l'Innovation Day e da allora la crescita è stata incredibile. Abbiamo implementato il nostro team di IA più volte, per sfruttare al meglio i vantaggi offerti dalle tecnologie AWS. Ora stiamo ottenendo profitti in modi nuovi impostando i prezzi sulla base delle previsioni climatiche. Abbiamo deciso di affidarci completamente ad AWS, a partire dall'archiviazione dei dati in S3 fino l'esecuzione con Lambda e le step function oltre a SageMaker. Ora, grazie alla collaborazione con AWS ML Solutions Lab, siamo completamente autonomi, in grado di ripetere i modelli che abbiamo costruito per continuare a migliorare e far crescere il nostro business."

Andrew Stypa, Lead Business Analyst

Frame.io

Frame.io

Frame.io è l’hub per tutto ciò che ha a che fare con i video. Leader nel settore della revisione e della collaborazione video con oltre 700.000 clienti a livello globale, Frame.io è la piattaforma in cui i professionisti del video di tutta l'intera gamma, dai liberi professionisti alle aziende, confluiscono per esaminare, approvare e pubblicare video.

"In qualità di piattaforma collaborativa di recensione di video, nativa del cloud e accessibile agli utenti di tutto il mondo, è fondamentale offrire ai nostri clienti la migliore sicurezza della categoria. Grazie al modello di rilevamento delle anomalie integrato in Amazon SageMaker, siamo in grado di sfruttare il machine learning per identificare, rilevare e bloccare rapidamente eventuali richieste IP indesiderate per garantire che i media dei nostri clienti siano sempre protetti e in massima sicurezza. Iniziare a utilizzare Amazon SageMaker, manutenerlo nel tempo, ridimensionarlo nella nostra piattaforma e adattarlo ai nostri flussi di lavoro specifici è stato semplice e lineare. Inoltre, con l'aiuto dei notebook Jupyter in SageMaker, siamo stati in grado di sperimentare modelli diversi per migliorare la precisione e il richiamo in modo da rendere la piattaforma Frame.io ancora più sicura".

Abhinav Srivastava, Vicepresidente e Responsabile della sicurezza delle informazioni presso Frame.io

Cookpad

Cookpad

Cookpad è il maggiore servizio di condivisione di ricette del Giappone, con circa 60 milioni di utenti al mese in Giappone e circa 90 milioni di utenti al mese nel mondo.

"Per soddisfare la richiesta di un utilizzo più facile del servizio di ricette di Cookpad, i nostri data scientist costruiranno modelli di apprendimento automatico per ottimizzare l'esperienza utente. Nel tentativo di ridurre al minimo il numero di iterazioni dei processi di addestramento per ottenere migliori prestazioni, abbiamo identificato una notevole difficoltà nell'implementazione degli endpoint di ML Inference, che rallentava i nostri processi di sviluppo. Per automatizzare l'implementazione dei modelli di apprendimento automatico in modo che i data scientist potessero implementarli da soli, abbiamo utilizzato le API di inferenza di Amazon SageMaker e abbiamo dimostrato che Amazon SageMaker elimina la necessità di ingegneri applicativi per implementare modelli di apprendimento automatico. Contiamo di automatizzare questo processo con Amazon SageMaker in produzione". 

Yoichiro Someya, responsabile della ricerca presso Cookpad

Fabulyst

Fabulyst

Fabulyst è una startup con base in India che si occupa di commercio in ambito moda e offre esperienze migliori e personalizzate per i clienti e migliori conversioni per i rivenditori grazie all’intelligenza artificiale.

"Fabulyst semplifica la ricerca dei prodotti perfetti per i clienti abbinando le query personalizzate specifiche dell'utente ai prodotti disponibili (ad esempio, considerando la corporatura e il colore della pelle). Allo stesso tempo, aiutiamo i rivenditori a raggiungere conversioni più efficaci utilizzando la visione artificiale per prevedere le tendenze mensili basate sui dati provenienti da social media, ricerche, blog e così via, e attivando l'assegnazione automatica di tag per queste tendenze nei cataloghi di vendita per i clienti. Fabulyst utilizza AWS per offrire le nostre migliori soluzioni, compreso Amazon SageMaker per la gestione delle numerose previsioni che supportano le nostre offerte. Affidandoci a SageMaker e ad altri servizi AWS, riusciamo a garantire valore ai nostri utenti, ad esempio un aumento del 10% per le entrate dei rivenditori. Inoltre, siamo certi del raggiungimento del nostro obiettivo: quello di offrire costantemente risultati incredibili".

Komal Prajapati, Fondatore & CEO - Fabulyst

Terragon Group

Terragon Group

Terragon Group è un business che si occupa di tecnologie per marketing e dati, e che offre valore alle aziende utilizzando le insight per poter raggiungere gli utenti di dispositivi mobili in Africa. Negli anni Terragon Group è diventato un leader nel campo del mobile e serve marchi locali o multinazionali che si estendono su territori differenti. Per poter inviare il messaggio pubblicitario giusto all’utente giusto e al momento giusto è importante fornire servizi personalizzati: Terragon utilizza i dati, le informazioni e l’intelligenza artificiale per aiutare i business a raggiungere il loro pubblico ideale in Africa.

"Amazon SageMaker ci fornisce un carico di lavoro di machine learning end-to-end pronto all’utilizzo, così da non dover creare ulteriori infrastrutture sottostanti. I nostri team di data science e machine learning sono in grado di passare rapidamente dall'esplorazione dei dati all'addestramento e alla produzione di modelli in solo un paio d'ore. Per un'azienda con sede in Africa con scarso talento ingegneristico, non c'è altro modo in cui saremmo stati in grado di costruire e distribuire modelli ML risolvendo problemi della vita reale in meno di 90 giorni".

Deji Balogun, CTO, Terragon Group

SmartNews

SmartNews

SmartNews è la più grande app di informazione del Giappone e vanta più di 11 milioni di utenti attivi ogni mese in tutto il mondo. Con le tecnologie di machine learning, SmartNews aiuta i propri utenti a trovare le notizie che hanno la maggior rilevanza per i propri interessi. Gli algoritmi di machine learning di SmartNews valutano milioni di articoli, segnali social e interazioni umane per fornire l’0,01% delle migliori storie che hanno maggior importanza al momento.

"La nostra missione di scoprire e fornire storie di qualità al mondo è supportata da AWS e soprattutto da Amazon SageMaker, che ci ha aiutato ad accelerare il ciclo dello sviluppo per servire i nostri clienti. L’utilizzo di Amazon SageMaker ci ha aiutato enormemente nei nostri metodi di curation delle notizie, tra cui la classificazione degli articoli utilizzando il deep learning, le previsioni del Life Time Value e la realizzazione di modelli compositi per testi e immagini. Non vediamo l’ora di raggiungere nuovi traguardi con Amazon SageMaker e le altre soluzioni di IA da AWS".

Kaisei Hamamoto, co-fondatore e co-CEO, SmartNews, Inc.

Pioneer

Pioneer

Piooner è un'azienda multinazionale specializzata nell'intrattenimento digitale come l'elettronica delle automobili e servizi di mobilità. La filosofia aziendale che guida Pioneer ha l'obiettivo di "muovere il cuore e toccare l'anima ed è con questa visione che l'azienda offre ai suoi clienti prodotti e servizi che possano aiutarli nella vita di tutti i giorni.

"Grazie ad Amazon SageMaker e le funzionalità di training dei modelli come l'ottimizzazione automatica, siamo stati in grado di sviluppare modelli di machine learning davvero accurati garantendo ai nostri clienti la privacy. Non vediamo l'ora di utilizzare anche AWS Marketplace per machine learning per algoritmi e modelli con training già eseguito per costruire una piattaforma di monetizzazione".

Kazuhiro Miyamoto, General Manager, Information Service Engineering Department, Pioneer

dely

Dely

Dely gestisce il miglior servizio per video di cucina del Giappone, Kurashiru. Ogni giorno si adopera a fornire servizi culinari che hanno un effetto positivo sul mondo. Kurashiru aiuta molte persone ogni giorno, permettendo a queste di preparare una grande varietà di piatti saporiti per colorare la loro tavola grazie a video di cucina. In Giappone, ogni mese decine di milioni di persone seguono questo servizio di cucina.

"Dopo due anni e mezzo dal lancio del nostro popolare servizio Kurashiru, la nostra app mobile è stata scaricata più di 15 milioni di volte. Crediamo che sia fondamentale fornire ai nostri utenti il contenuto giusto al momento gusto. Per questo utilizziamo tecnologie avanzate come il machine learning. Per ottenere ciò, abbiamo utilizzato Amazon SageMaker, il quale ci ha permesso di realizzare e distribuire in produzione modelli di machine learning in 90 giorni. Abbiamo anche migliorato il Click-Through Rate del 15% con la personalizzazione dei contenuti".

Masato Otake, CTO, Dely, Inc.

Ayla Networks

Ayla Networks

Ayla Networks è una società di software IoT platform-as-a-service con sede a San Francisco che sviluppa soluzioni sia per il mercato consumer che commerciale.

"Ad Ayla Networks, scopriamo che i nostri clienti utilizzano principalmente l'infrastruttura AWS per le comprovate scalabilità e affidabilità. Soprattutto, le aziende di produzione commerciale sfruttano Amazon SageMaker per usufruire de dati sulle prestazioni della strumentazione dal cloud Ayla. Con Amazon SageMaker e il nostro prodotto Ayla IQ, le aziende possono rilevare informazioni dettagliate e anomalie producendo prodotti e servizi di maggiore qualità, anche prevedendo potenziali guasti alle macchine e potendoli risolvere prima che si verifichino. Questa soluzione permette ai nostri clienti di continuare l'esecuzione senza interruzioni così che le aziende possano continuare a crescere, produrre e scalare senza preoccupazioni".

Prashanth Shetty, VP of Global Marketing - Ayla Networks

FreakOut

FreakOut

FreakOut è un'azienda leader del settore tecnologico che si occupa di pubblicità digitale. La compagnia offre prodotti per le transazioni in tempo reale e di inventario per la pubblicità via internet e l'analisi di dati per la navigazione Web. FreakOut sfrutta il machine learning per effettuare previsioni relativamente a percentuale di clic (CTR, click through rate) e tasso di conversione (CVR, conversion rate).

"Stiamo effettuando la migrazione degli ambienti di training di machine learning da locale ad Amazon SageMaker. Amazon SageMaker offre la soluzione scalabile adatta al nostro business. Con la funzionalità di ottimizzazione automatica dei modelli di Amazon SageMaker, possiamo ottimizzare e stimare modelli altamente accurati per soddisfare i nostri requisiti".

Jiro Nishiguchi, CTO presso FreakOut

Wag!

Wag!

"Presso Wag dobbiamo soddisfare le esigenze della domanda e dell'offerta in un marketplace bilaterale. Il machine learning powered by AWS ci è sembrato una buona opportunità per riuscire a prevedere la domanda dei clienti che richiedono il servizio di dog walking. Standardizzando le nostre applicazioni di machine learning su AWS, siamo in grado di soddisfare la crescita continua delle nostre esigenze aziendali, procedendo a un passo e a una scala notevolmente migliore nonostante le limitate risorse tecniche. Utilizzando Amazon SageMaker, possiamo accelerare il nostro processo di sperimentazione del machine learning: il lavoro computazionale di 45 giorni viene ridotto a 3 giorni con l'addestramento del modello.

Dave Bullock, VP of Technology of Engineering and Operations presso Wag Labs Inc.

Print

Infoblox

Infobox è il leader nei servizi di sicurezza di reti gestite da cloud, progettato per gestire e mettere in sicurezza il nucleo delle reti, vale a dire DNS, DHCP e gestione di indirizzi IP (collettivamente conosciuti come DDI).

"In Infoblox, abbiamo creato un servizio di analisi della sicurezza dei DNS con Amazon SageMaker che rileva gli aggressori dannosi che creano omografie allo scopo di impersonare nomi di dominio di grande valore scelti come bersaglio e li utilizzano per distribuire malware, per tentare di carpire le informazioni degli utenti servendosi del phishing e per attaccare la reputazione di un marchio. AWS è il nostro standard aziendale per il cloud e possiamo sfruttare diverse caratteristiche offerte da SageMaker per accelerare lo sviluppo di modelli di ML. Grazie all'uso delle funzionalità di regolazione modello automatiche di SageMaker abbiamo ridimensionato la nostra sperimentazione e migliorato l'accuratezza fino al 96,9%. Grazie a SageMaker, il nostro rilevatore omografo di IDN, una parte del nostro servizio di analisi della sicurezza, ha identificato più di 60 milioni di risoluzioni di domini omografi e continua a trovarne milioni ogni mese, il che aiuta i nostri clienti a rilevare usi illeciti di marchio più rapidamente."

Femi Olumofin, Analytics Architect - Infoblox

NerdWallet

NerdWallet

NerdWallet è una società di finanza personale con sede a San Francisco che fornisce revisioni e comparazioni di prodotti finanziari come carte di credito, prodotti bancari, investimenti, prestiti e assicurazioni.

"NerdWallet si basa su processi di data science e machine learning (ML) per proporre ai clienti prodotti finanziari personalizzati. Abbiamo scelto di standardizzare i nostri carichi di lavoro di ML su AWS perché ci ha permesso di modernizzare rapidamente le nostre pratiche ingegneristiche di data science, eliminare le problematiche e velocizzare i tempi di consegna. Con Amazon SageMaker, i nostri data scientist possono dare la priorità agli obiettivi strategici e concentrare le proprie energie dove è più vantaggioso per l'azienda, ovvero nella ricerca delle soluzioni ai problemi dei nostri utenti".

Ryan Kirkman, Senior Engineering Manager, NerdWallet

Splice

Splice

Splice è una piattaforma creativa per musicisti creata da musicisti a sostegno degli artisti e con l'obiettivo di stimolare il loro vero potenziale creativo. Questa startup di creazione musicale, che prevede un abbonamento, è stata fondata nel 2013 e adesso conta oltre 3 milioni di musicisti che esplorano ogni giorno il catalogo alla ricerca dei suoni perfetti.

"Il nostro catalogo di suoni e preset sta crescendo di pari passo con la sfida della ricerca del suono giusto. È per questo che Splice ha investito nella creazione delle migliori funzionalità di ricerca e scoperta. Standardizzando i nostri carichi di lavoro di ML in AWS, abbiamo creato una nuova offerta per l'utente con l'obiettivo di permettere in modo più semplice che mai ai musicisti di trovare i suoni che cercano. Dal lancio di Similar Sounds, abbiamo visto un aumento di circa il 10% della conversione delle ricerche. Sfruttando Amazon SageMaker, abbiamo creato il complemento perfetto per la ricerca basata sul testo, e questo ha permesso ai nostri utenti di scoprire e navigare nel nostro catalogo in modi che prima non erano possibili".

Alejandro Koretzky, Responsabile del machine learning e ingegnere capo, Splice

Audeosoft

Audeosoft

"Prima di iniziare il nostro percorso con il machine learning, potevamo solo cercare il testo di un curriculum vitae (CV), ma la nostra carenza in quanto a capacità di riconoscimento ottico dei caratteri comportava che non tutti i CV fossero ricercabili. Con Amazon Textract, ora possiamo estrarre i contenuti di ogni tipo di documento e disponiamo delle competenze per indicizzare tutti i file caricati in un cluster Elasticsearch. Ora ogni documento caricato può essere cercato tramite Elasticsearch, che offre velocità di ricerca 10 volte superiori rispetto all’originale ricerca SQL. Inoltre, abbiamo implementato la vettorizzazione delle parole tramite Amazon SageMaker, per aggiungere parole chiave correlate alla query di ricerca. Questo processo ci permette di classificare e qualificare accuratamente i candidati, aiutandoci a eliminare gli errori causati da sinonimi e testi alternativi utilizzati nei CV. Tramite Amazon SageMaker e Amazon Textract, possiamo offrire candidati più intelligenti e di qualità superiore agli addetti alle assunzioni. Prestazioni stabili, disponibilità internazionale e affidabilità sono fattori di successo chiave per Audeosoft. Quando quasi 8 anni fa abbiamo preso la decisione di collaborare con AWS, sapevamo che sarebbe stato un partner eccezionale per il futuro. Scegliendo AWS come nostro cloud provider preferenziale, collaboriamo con un partner con la nostra stessa spinta e il nostro stesso desiderio di creare innovazione negli anni a venire”.

Marcel Schmidt, CTO - Audeosoft

Freshworks

Freshworks

Freshworks è un'azienda SaaS B2B unicorno con sede negli Stati Uniti e in India che si rivolge alle aziende di piccole e medie dimensioni (SMB) e alla fascia media di mercato in tutto il mondo. Freshworks offre un portafoglio di applicazioni semplici da usare, ma al contempo estremamente potenti, per i flussi di lavoro relativi al coinvolgimento di clienti e dipendenti.

"Noi di Freshworks abbiamo creato la nostra offerta di punta per l'intelligenza artificiale e il machine learning, Freddy AI Skills, con modelli iper-personalizzati che aiutano gli agenti a rispondere alle domande degli utenti e a risolvere con successo le richieste di assistenza, i team di vendita e marketing a dare priorità alle opportunità e a concludere rapidamente trattative, e i responsabili del successo dei clienti a ridurre il rischio di abbandono e far crescere il business. Abbiamo scelto di standardizzare i nostri carichi di lavoro di machine learning su AWS perché potevamo creare, addestrare e distribuire facilmente modelli di machine learning ottimizzati per i casi d'uso dei nostri clienti. Grazie ad Amazon SageMaker, abbiamo creato più di 30.000 modelli per 11.000 clienti, riducendo i tempi di addestramento per questi modelli da 24 ore a meno di 33 minuti. Con SageMaker Model Monitor, possiamo tenere traccia delle deviazioni dei dati e riaddestrare i modelli per garantire la precisione. Freddy AI Skills, powered by Amazon SageMaker, è in continua evoluzione grazie ad azioni intelligenti, informazioni approfondite sui dati e conversazioni basate sulle intenzioni."

Tejas Bhandarkar, Senior Director of Product - Freshworks Platform

Veolia

Veolia

Veolia Water Technologies è un’azienda di progettazione qualificata e un fornitore specializzato di soluzioni e servizi tecnologici per il trattamento di acqua e acque reflue.

“In sole otto settimane siamo riusciti a sviluppare con AWS un prototipo in grado di anticipare il momento in cui pulire o cambiare le membrane di filtraggio dell’acqua nei nostri impianti di desalinizzazione. Grazie a Amazon SageMaker, abbiamo costruito un modello ML in grado di apprendere dai modelli precedenti e prevedere la futura evoluzione degli indicatori di contaminazione. Mediante la standardizzazione dei carichi di lavoro ML su AWS, abbiamo potuto ridurre i costi ed evitare tempi di inattività, migliorando allo stesso tempo la qualità dell’acqua prodotta. Questi risultati non sarebbero stati possibili senza l’esperienza tecnica, la fiducia e la dedizione di entrambi i team nel raggiungimento di un unico obiettivo: una fornitura di acqua pulita e sicura senza interruzioni.”

Aude GIARD, Chief Digital Officer – Veolia Water Technologies

Sportradar

Sportradar

Sportradar è fornitore leader di dati sportivi che trasmette in tempo reale a oltre 65 campionati in tutto il mondo. Nel tentativo di generare informazioni approfondite all'avanguardia, l'azienda ha collaborato con Amazon ML Solutions Lab per sviluppare un predittore di goal di calcio.

"Abbiamo deliberatamente lanciato uno dei problemi di visione artificiale più difficili possibili al team di Amazon ML Solutions Lab per testare le capacità del machine learning di AWS e sono davvero impressionato dai risultati. Il team ha creato un modello ML per prevedere i goal del calcio con 2 secondi di anticipo rispetto al gameplay dal vivo tramite Amazon SageMaker. Questo modello da solo ci ha aperto le porte a molte nuove opportunità aziendali. Non vediamo l'ora di standardizzare i nostri carichi di lavoro ML su AWS perché possiamo creare, addestrare e distribuire modelli che promuovono l'innovazione aziendale e soddisfano i nostri requisiti di costi e latenza".  

Ben Burdsall, CTO - Sportradar

Roche

Roche

F. Hoffmann-La Roche AG (Roche) è una multinazionale svizzera che opera nei settori della farmaceutica e della diagnostica.

"Volevo spingere il mio team a sistematizzare i nostri flussi di lavoro di machine learning nel cloud, quindi abbiamo lavorato con il Machine Learning Solutions Lab per creare workshop Amazon SageMaker, dimostrando il modo in cui SageMaker ottimizza il processo produttivo di machine learning per i data scientist. A partire dal workshop, l'80% dei nostri carichi di lavoro di machine learning viene eseguito su AWS, il che consente ai nostri team di portare i modelli di ML in produzione tre volte più velocemente." SageMaker e lo stack AWS ci consentono di utilizzare le risorse informatiche per addestrare in modalità on demand senza essere vincolati alla disponibilità on-premise".  

Gloria Macia, Data Scientist - Roche

Guru_Logos

Guru

“A Guru, crediamo che debba essere la conoscenza che ti serve per svolgere un lavoro a trovarti. La nostra è una soluzione di gestione della conoscenza che acquisisce le informazioni più preziose del tuo team e le organizza in un'unica fonte di verità. Ci serviamo dell'intelligenza artificiale per raccomandarti la conoscenza in tempo reale nel luogo in cui lavori, per garantire che continui a essere verificata e per aiutarti a gestire meglio la tua conoscenza di base complessiva. Il nostro team di data scientist in continua espansione affronta tutte le sfide di un team di machine learning moderno (costruzione, formazione e implementazione dei sistemi ML su larga scala) e ci affidiamo ad Amazon SageMaker come strumento per superare alcune di queste sfide. Attualmente utilizziamo SageMaker Inference per implementare più rapidamente i nostri modelli di ML nella produzione, dove ci consentono di soddisfare il nostro primo obiettivo: fornire valore ai nostri clienti.”  

Nabin Mulepati, Staff ML Engineer di Guru

Amazon Operations

Amazon Operations

Alla luce dell'impegno di Amazon per la sicurezza dei collaboratori durante la pandemia di COVID-19, il team Amazon Operations ha distribuito una soluzione di machine learning (ML) per rispettare i protocolli di distanziamento sociale in oltre 1.000 filiali in tutto il mondo. Amazon Operations ha collaborato con Amazon Machine Learning Solutions Lab per creare una visione computerizzata all'avanguardia per la stima delle distanze tramite Amazon SageMaker.

"Standardizzando i carichi di lavoro ML su AWS e collaborando con esperti su ML Solutions Lab, abbiamo creato un set innovativo di modelli che, secondo le nostre stime, potrebbero consentirci di ridurre gli interventi di revisione manuale fino al 30%. L'uso di Amazon SageMaker ci mette nelle condizioni di dedicare più tempo alla sicurezza e al miglioramento della precisione riducendo la necessità di centinaia di ore di revisione manuale al giorno."

Russell Williams, Director, Software Development di Amazon OpsTech IT

Freddy's

Freddy's Frozen Custard & Steakburgers

Freddy's Frozen Custard & Steakburgers è una catena di ristoranti fast casual il cui menù comprende hamburger di carne di manzo, hot dog Vienna Beef, patatine a fiammifero e altri piatti preparati al momento e dessert a base di crema pasticciera congelata. Fondata nel 2002 e diventata un franchising nel 2004, Freddy's ha al momento circa 400 ristoranti in 32 stati.

"Prima sceglievamo semplicemente due ristoranti simili, ma adesso siamo più consapevoli della relazione tra piatti del menù, clienti e punti vendita. Amazon SageMaker Autopilot, che alimenta la nuova funzionalità ML di Domo, ha dato un impulso enorme a provare nuove idee e migliorare l'esperienza dei clienti ai nostri team di marketing e acquisti."

Sean Thompson, IT Director di Freddy's

Freddy's

Vanguard

"Siamo felici che i nostri data scientist e data engineer di Vanguard possano ora collaborare in un unico notebook per l'analisi e il machine learning. Ora che Amazon SageMaker Studio dispone di integrazioni integrate con Spark, Hive e Presto, tutte in esecuzione su Amazon EMR, i nostri team di sviluppo possono essere più produttivi. Questo unico ambiente di sviluppo consentirà ai nostri team di concentrarsi sulla creazione, la formazione e l'implementazione di modelli di machine learning".

Doug Stewart, Senior Director of Data and Analytics presso Vanguard

Freddy's

Provectus

"Stavamo aspettando una funzionalità per creare e gestire i cluster Amazon EMR direttamente da Amazon SageMaker Studio in modo che i nostri clienti potessero eseguire flussi di lavoro Spark, Hive e Presto direttamente dai notebook Amazon SageMaker Studio. Siamo felici che Amazon SageMaker abbia ora creato in modo nativo questa funzionalità per semplificare la gestione dei processi Spark e di machine learning. Ciò aiuterà i data engineer e i data scientist dei nostri clienti a collaborare in modo più efficace per eseguire analisi interattive dei dati e sviluppare pipeline di machine learning con trasformazioni dei dati basate su EMR".

Stepan Pushkarev, CEO presso Provectus

Freddy's

Climate

"La missione di Climate è fornire agli agricoltori di tutto il mondo informazioni accurate per prendere decisioni fondate sui dati e massimizzare la resa di ogni ettaro di terreno. A tale scopo, abbiamo investito in tecnologie come gli strumenti di machine learning per costruire modelli utilizzando entità misurabili chiamate funzionalità, ad esempio la resa di un campo per una determinata coltivazione. Con Amazon SageMaker Feature Store, siamo in grado di accelerare lo sviluppo di modelli di ML grazie a un archivio di funzionalità centralizzato, che facilita l'accesso e il riutilizzo delle funzionalità da parte di team diversi. SageMaker Feature Store permette di accedere facilmente alle funzionalità in tempo reale utilizzando l'archivio online oppure di eseguire funzionalità secondo una pianificazione attraverso l'archivio non in linea, a seconda del caso d'uso. Con l'archivio funzionalità di SageMaker, siamo in grado di sviluppare modelli di ML più velocemente".


Atul Kamboj, Senior Data Scientist - iCare, NSW Government Insurance and Care agency, AustraliaDaniel McCaffrey, Vice President, Data and Analytics presso Climate

Featured customers - 26

Experian

"Experian si impegna per informare i consumatori sul funzionamento e sull'impiego del credito nella gestione delle proprie finanze, e aiuta le società di finanziamento a gestire il rischio di insolvenza. Nel nostro percorso di continuo impegno per costruire modelli finanziari imperniati su best practice, cercavamo soluzioni che accelerassero la creazione di prodotti basati sul machine learning. Amazon SageMaker Feature Store ci fornisce una soluzione sicura per archiviare e riutilizzare le funzionalità per le nostre applicazioni di ML. La capacità di garantire l'ottimizzazione delle applicazioni in batch e in tempo reale tra account diversi è un requisito essenziale per il nostro campo di attività. L'impiego delle nuove capacità di Amazon SageMaker Feature Store ci aiuta a consentire ai nostri clienti di assumere il controllo della propria posizione creditizia e di ridurre i costi nella nuova economia."

Geoff Dzhafarov, Chief Enterprise Architect presso Experian Consumer Services

Freddy's

DeNA

"La missione di DeNA è fare la differenza e soddisfare i clienti utilizzando Internet e IA/ML. Fornire servizi basati sul valore è il nostro obiettivo principale e vogliamo garantire che le nostre aziende e i nostri servizi siano pronti a raggiungere tale traguardo. Vorremmo individuare e riutilizzare funzionalità in tutta l'organizzazione e Amazon SageMaker Feature Store ci assiste con un metodo semplice ed efficiente per riutilizzare le funzionalità per diverse applicazioni. Inoltre, Amazon SageMaker Feature Store ci aiuta a mantenere definizioni standard delle funzionalità e ci fornisce una metodologia coerente per l'addestramento dei modelli e l'implementazione in produzione. Grazie a queste nuove capacità di Amazon SageMaker, abbiamo velocizzato le fasi di addestramento e distribuzione dei modelli di ML, rispettando così il nostro impegno di soddisfare i clienti fornendo i servizi migliori.

Kenshin Yamada, General Manager / AI System Dept System Unit presso DeNA

Freddy's

United Airlines

"A United Airlines, utilizziamo il machine learning (ML) per migliorare l'esperienza dei clienti con offerte personalizzate, consentendo loro di essere pronti utilizzando il Travel Readiness Center. Il nostro uso del ML si estende anche alle operazioni aeroportuali, alla pianificazione della rete e alla programmazione dei voli. Mentre uscivamo dalla pandemia, Amazon SageMaker ha svolto un ruolo fondamentale nel Travel Readiness Center, consentendoci di gestire grandi volumi di certificati di test COVID e schede vaccinali utilizzando l'automazione dei modelli basati sui documenti. Con le nuove funzionalità di governance di Amazon SageMaker, abbiamo un maggiore controllo e visibilità sui nostri modelli di machine learning. SageMaker Role Manager semplifica notevolmente il processo di configurazione degli utenti, fornendo autorizzazioni di base e attività ML per ogni persona collegata ai ruoli IAM. Con SageMaker Model Cards, i nostri team possono acquisire e condividere in modo proattivo le informazioni sui modelli per la revisione e, utilizzando SageMaker Model Dashboard, siamo in grado di cercare e visualizzare i modelli distribuiti su MARS, la nostra piattaforma interna di ML. Con tutte queste nuove funzionalità di governance, stiamo risparmiando una quantità significativa di tempo e siamo in grado di scalare".

Ashok Srinivas, Director of ML Engineering and Ops presso United Airlines

Freddy's

Capitec

"In Capitec abbiamo un'ampia gamma di data scientist nelle nostre linee di prodotto, che realizzano diverse soluzioni di ML. I nostri ingegneri ML gestiscono una piattaforma di modellazione centralizzata costruita su Amazon SageMaker per consentire lo sviluppo e l'implementazione di tutte queste soluzioni ML. Senza alcuno strumento incorporato, il monitoraggio degli sforzi di modellazione tende a una documentazione disarticolata e alla mancanza di visibilità del modello. Con SageMaker Model Cards, possiamo tenere traccia di molti metadati del modello in un ambiente unificato e SageMaker Model Dashboard ci offre visibilità sulle prestazioni di ogni modello. Inoltre, SageMaker Role Manager semplifica il processo di gestione dell'accesso dei data scientist nelle nostre diverse linee di prodotti. Ognuno di questi elementi contribuisce a far sì che il nostro modello di governance sia sufficiente a giustificare la fiducia che i nostri clienti ripongono in noi come fornitore di servizi finanziari."

Dean Matter, ML Engineer presso Capitec Bank

Freddy's

Lenovo

Lenovo™, il produttore di PC numero 1 al mondo, ha recentemente incorporato Amazon SageMaker nella sua ultima offerta di manutenzione predittiva.  Ashok Srinivas, Director of ML Engineering and Ops presso United Airlines.

"Il nuovo Gestore Edge di SageMaker contribuirà a eliminare lo sforzo manuale necessario per ottimizzare, monitorare e migliorare continuamente i modelli dopo l'implementazione. Utilizzandolo, prevediamo che i nostri modelli funzioneranno più velocemente e consumeranno meno memoria rispetto ad altre piattaforme di machine learning analoghe. Il Gestore Edge di SageMaker ci consente di campionare automaticamente i dati all'edge, inviarli in modo sicuro al cloud e monitorare continuamente la qualità di ogni modello su ciascun dispositivo dopo l'implementazione. Questo ci consente di monitorare, migliorare e aggiornare da remoto i modelli sui nostri dispositivi edge in tutto il mondo, permettendo a noi e ai nostri clienti anche un risparmio in termini di tempi e costi".

Igor Bergman, Lenovo Vice President, Cloud & Software of PCs and Smart Devices.

Freddy's

Basler AG

Basler AG è un produttore leader di fotocamere digitali di alta qualità e accessori per l'industria, la medicina, i trasporti e tanti altri mercati.

"Basler AG offre soluzioni intelligenti di visione artificiale in un ampio spettro di settori, tra cui applicazioni manifatturiere, mediche e di vendita al dettaglio. Siamo felici di ampliare la nostra offerta software con nuove funzionalità rese possibili dal Gestore Edge di Amazon SageMaker. Per garantire che le nostre soluzioni di machine learning siano efficienti e affidabili, abbiamo bisogno di uno strumento MLOps scalabile da edge a cloud che ci consenta di monitorare, curare e migliorare continuamente i modelli di machine learning sui dispositivi edge. Il Gestore Edge di SageMaker ci consente di campionare automaticamente i dati all'edge, inviarli in modo sicuro al cloud e monitorare continuamente la qualità di ogni modello su ciascun dispositivo dopo l'implementazione. Questo ci consente di monitorare, migliorare e aggiornare da remoto i modelli sui nostri dispositivi edge in tutto il mondo, permettendo a noi e ai nostri clienti anche un risparmio in termini di tempi e costi".

Mark Hebbel, Head of Software Solutions presso Basler.

NWG_LOGO_HZ_POS_RGB_forpsd

NatWest Group

NatWest Group, un importante istituto di servizi finanziari, ha standardizzato il processo di sviluppo e implementazione del modello di ML in tutta l'organizzazione, riducendo il ciclo di rotazione per la creazione dei nuovi ambienti di ML da 40 a 2 giorni e accelerando il time-to-value per i casi d'uso di ML da 40 a 16 settimane.

Freddy's

AstraZeneca

"Invece di creare più processi manuali, possiamo automatizzare la maggior parte del processo di sviluppo del machine learning semplicemente all'interno di Amazon SageMaker Studio". 

Cherry Cabading, Global Senior Enterprise Architect presso AstraZeneca

Freddy's

Janssen

Impiegando i servizi AWS, tra cui Amazon SageMaker, Janssen ha implementato un processo MLOps automatizzato che ha migliorato l'accuratezza delle previsioni del modello del 21% e ha aumentato la velocità di ingegneria delle funzionalità di circa il 700%, riducendo i costi e aumentando al contempo l'efficienza.
Freddy's

Qualtrics

"Amazon SageMaker migliora l'efficienza dei nostri team MLOps con gli strumenti necessari per testare e implementare modelli di machine learning su larga scala".

Samir Joshi, ML Engineer presso Qualtrics

Freddy's

Deloitte

"Amazon SageMaker Data Wrangler ci permette di partire in quarta nell'affrontare le nostre esigenze di preparazione dei dati con una ricca collezione di strumenti di trasformazione che accelerano il processo di preparazione dei dati di machine learning necessari per portare nuovi prodotti sul mercato. A loro volta, i nostri clienti traggono vantaggio dalla velocità con cui dimensioniamo i modelli implementati che ci permettono di offrire risultati misurabili e sostenibili che soddisfano le esigenze dei nostri clienti in pochi giorni piuttosto che in mesi".

Frank Farrall, Principal, AI Ecosystems and Platforms Leader presso Deloitte

Freddy's

NRI

"In qualità di partner di consulenza Premier AWS, i nostri team tecnici stanno lavorando a stretto contatto con AWS per sviluppare soluzioni innovative per aiutare i nostri clienti a migliorare continuamente l'efficienza delle loro operazioni. Il machine learning è il cuore delle nostre soluzioni innovative, ma il nostro flusso di lavoro di preparazione dei dati comporta tecniche sofisticate che, di conseguenza, richiedono una quantità significativa di tempo per essere rese operative in un ambiente di produzione. Con Amazon SageMaker Data Wrangler, i nostri data scientist possono completare ogni fase del flusso di lavoro di preparazione dei dati, compresa la selezione, la pulizia, l'esplorazione e la visualizzazione, il che ci aiuta ad accelerare il processo di preparazione dei dati e a preparare facilmente i nostri dati per il machine learning. Con Amazon SageMaker Data Wrangler possiamo preparare più velocemente i dati per il machine learning".

Shigekazu Ohmoto, Senior Corporate Managing Director presso NRI Japan

Freddy's

Equilibrium

"Poiché la nostra impronta nel mercato della gestione della salute della popolazione continua ad espandersi in un maggior numero di pagatori sanitari, fornitori, gestori di prestazioni farmaceutiche e altre organizzazioni sanitarie, avevamo bisogno di una soluzione per automatizzare i processi end-to-end per le origini dati che alimentano i nostri modelli di ML, compresi i dati di richieste, di registrazione e delle farmacie. Ora con Amazon SageMaker Data Wrangler possiamo ridurre il tempo necessario per l'aggregazione e la preparazione dei dati per il machine learning tramite una serie di flussi di lavoro che sono più facili da convalidare e riutilizzare. In questo modo abbiamo migliorato notevolmente il tempo di consegna e la qualità dei nostri modelli, aumentato l'efficacia dei nostri data scientist e ridotto il tempo di preparazione dei dati di quasi il 50%. Inoltre, SageMaker Data Wrangler ci ha aiutato a risparmiare più iterazioni di machine learning e un tempo significativo di GPU, accelerando l'intero processo end-to-end per i nostri clienti, dato che ora possiamo creare data mart con migliaia di caratteristiche tra cui farmacia, codici di diagnosi, visite di pronto soccorso, degenze ospedaliere, demografia e altri determinanti sociali. Con SageMaker Data Wrangler, possiamo trasformare i nostri dati con una maggiore efficienza per la creazione di set di dati di addestramento, generare informazioni dettagliate sui set di dati prima di eseguire modelli di machine learning e preparare i dati del mondo reale per inferenze/previsioni su larga scala".

Lucas Merrow, CEO presso Equilibrium Point IoT

Freddy's

iCare Insurance e Care NSW

iCare è un'agenzia governativa del NSW che fornisce un'assicurazione di compensazione dei lavoratori a più di 329.000 datori di lavoro del settore pubblico e privato nel NSW, in Australia e ai loro 3,2 milioni di dipendenti. Inoltre, iCare assicura costruttori e proprietari di case, fornisce cure e assistenza alle persone gravemente ferite sulle strade del Nuovo Galles del Sud e protegge oltre 266,6 miliardi di dollari di beni del governo del NSW, tra cui la Sydney Opera House, il Sydney Harbour Bridge, scuole e ospedali.

"In Insurance and care (iCare) NSW, la nostra visione è cambiare il modo in cui le persone pensano all'assicurazione e all'assistenza. Amazon SageMaker ha consentito ad iCare di creare e addestrare modelli di deep learning per l'identificazione precoce di pazienti a lungo termine affetti da malattie causate dalle polveri. Questo consente di prevenire patologie potenzialmente mortali. Come da studi precedenti, i segni di silicosi non sono stati interpretati o rilevati nel 39% dei pazienti. La diagnosi assistita dall'intelligenza artificiale ha consentito ai medici di identificare correttamente l'80% dei casi rispetto al 71% della diagnosi non assistita. Dopo aver implementato questo progetto, stiamo affidando ad Amazon SageMaker risorse per sviluppare soluzioni e processi in altri progetti, poiché ciò si è dimostrato più rapido e semplice di prima e siamo in grado di ampliare facilmente i nostri sforzi per fornire assistenza alla popolazione del Nuovo Galles del Sud".

Atul Kamboj, Senior Data Scientist presso iCare, NSW Government Insurance and Care agency, Australia