Takler krevende taleprosessering på kanten

Minneløsningen SuperFlash memBrain gjør at Microchip-kunden WITINMENs systembrikke (SoC) kan takle de mest krevende nevrale prosesseringene, både med hensyn til kostnader, kraft- og ytelse, mener Microchip.

Publisert Sist oppdatert

Denne artikkelen er 2 år eller eldre

Dataprosessering-i-minne-teknologi sørger for å eliminere de enorme flaskehalsene rundt datakommunikasjon i forbindelse med krevende applikasjoner som taleprosessering ved hjelp av kunstig intelligens (KI) ved nettverkskanten.

Microchip, via datterselskapet Silicon Storage Technology (SST) melder at deres SuperFlash memBrain nevromorfe minneløsning har løst dette problemet for WITINMEMs nevrale prosesserings-SoC, den første i volumproduksjon som muliggjør sub-mA systemer for å redusere talestøy og gjenkjenne hundrevis av kommandoord, i sanntid og umiddelbart etter oppstart.

Microchip har samarbeidet med WITINMEM for å bygge inn Microchips memBrain analoge i-minne databehandlingsløsning, basert på SuperFlash-teknologi, i WITINMEMs ultra-lav-strøm SoC. Systembrikken har databehandling-i-minne-teknologi for nevral nettverksbehandling, inkludert talegjenkjenning, dyp talestøyreduksjon, scenedeteksjon og helsestatusovervåking. WITINMEM jobber på sin side med flere kunder for å bringe produkter til markedet i løpet av 2022 basert på denne SoCen.

– WITINMEM bryter ny mark med Microchips memBrain-løsning, sier Shaodi Wang, administrerende direktør i WITINMEM. – Vi var de første som utviklet en data-i-minne-brikke for lyd i 2019, og nå har vi oppnådd nok en milepæl med volumproduksjon av denne teknologien i vår ultra laveffekt nevrale prosesserings-SoC som effektiviserer og forbedrer talebehandlingsytelsen i intelligent tale og helseprodukter.

Microchips memBrain nevromorfe minneprodukt er optimalisert for å utføre vektormatrisemultiplikasjon (VMM) for nevrale nettverk. Den gjør det mulig for prosessorer som brukes i batteridrevne og dypt innebygde kantenheter å levere høyest mulig KI-beslutningsytelse per watt. Dette oppnås ved både å lagre nevrale modellvekter som verdier i minnematrisen og bruke denne matrisen som det nevrale prosesseringselementet. Resultatet er 10 til 20 ganger lavere strømforbruk enn alternative tilnærminger sammen med lavere totale prosessorkostnader (BOM) fordi ekstern DRAM og NOR ikke er nødvendig.

Permanent lagring av nevrale modeller inne i memBrains prosesseringselement støtter også «instant-on» funksjonalitet for sanntids nevrale nettverksbehandling. WITINMEM har utnyttet SuperFlash-teknologiens flytende portceller og ikke-flyktighet for å slå av databehandling-i-minne-makroene i inaktiv tilstand for ytterligere å redusere lekkasjekraft i krevende IoT-applikasjoner.

Powered by Labrador CMS