Hardware acceleration of convolutional Tsetlin machines for image classification
Svein Anders Tunheim
Bok · Engelsk · 2025 · Doktoravhandlinger
| Originaltittel | |
|---|---|
| Omfang | xxviii, 222 sider : illustrasjoner, figurer, tabeller
|
| Opplysninger | Delvis opptrykk av artikler. - Avhandling (ph.d.) - Universitetet i Agder, Grimstad, 2025. - Elektroniske Edge AI enheter i kommunikasjonsnettverk utfører kunstig intelligens-oppgaver lokalt. De har vanligvis begrensede ressurser mht. prosessering, og må operere med lave energibudsjetter. For å avlaste prosessorer i elektroniske systemer benyttes ofte maskinvare-akseleratorer, som er spesialdesignede kretsmoduler som utfører krevende oppgaver effektivt.Målet med denne avhandlingen var å utvikle lav-effekt maskinvareakseleratorer for bildeklassifisering i Edge AI enheter, basert på Tsetlin Machine (TM) algoritmen. På grunn TMs logikkbaserte struktur er det ikke påkrevd med komplekse aritmetiske kretser, noe som vanligvis er nødvendig for dype nevrale nettverk. TM er derfor velegnet for kretsløsninger med lavt strømforbruk.Under trening av TM-løsninger utføres mange stokastiske beslutninger. Det ble undersøkt hvordan lengden av repeterende sekvenser av vilkårlige tall påvirket nøyaktigheten av TM-løsningene. Resultatene ble benyttet under designet av maskinvareakseleratorene som støttet TM trening.Basert på TM med konvolusjon (CTM) ble det designet en akselerator for mønstergjenkjenning, for anvendelse på datasettet "2-Dimensional Noisy XOR". Denne ble implementert i en programmerbar krets, en såkalt FPGA. Løsningen støttet både trening og inferens, og oppnådde en testnøyaktighet på 99,9% som var på samme nivå som for programvareversjonen. Dette var den første rapporterte maskinvareløsningen basert på CTM. En akselerator basert på "convolutional coalesced TM" (ConvCoTM) med 128 logiske regler ble også utviklet og implementert i en FPGA. Løsningen støttet komplett trening, og krevde minimal interaksjon med hovedprosessoren i systemet. For det velkjente MNIST-datasettet, som består av håndskrevne tall, ble det oppnådd en testnøyaktighet på 97,6%. Med en klokkefrekvens på 50 MHz utførte akseleratorkjernen 134 tusen bildeklassifiseringer per sekund, og en enkelt treningsperiode med 60 tusen bildeeksempler tok 1,5 sekunder. Dette var den første rapporterte maskinvareløsningen basert på ConvCoTM.For å demonstrere ultra-lavt energiforbruk ble en ConvCoTM-basert applikasjonsspesifikk integrert krets (ASIC) designet. Dette var en synkron, fullstendig digital, inferens-akselerator med 128 logiske regler. Kretsen ble implementert i en 65 nm CMOS-teknologi, og var den første rapporterte ASICen basert på ConvCoTM. Akseleratoren oppnådde en testnøyaktighet for MNIST på 97,42%, som samsvarte eksakt med programvaremodellen. Energiforbruket per klassifisering ble målt til 8,6 nJ. Dette var det nest laveste resultatet for alle rapporterte løsninger av produserte integrerte kretser, som opererer på MNIST og har sammenlignbar testnøyaktighet, og det laveste resultatet for helt digitale kretser. Maskinvarearkitekturene som ble utviklet for CTM og ConvCoTM i denne avhandlingen, er godt egnet for skalering og anvendelse på større og mer komplekse bilder. Det ble identifisert klare avveininger mellom prosesseringsrate og bruk av maskinvareressurser. Med de FPGA-baserte akseleratorene ble det demonstrert mulighet for å utføre komplett TM trening lokalt, noe som muliggjør Edge AI enheter som kan lære kontinuerlig.
|
| Emner | |
| Sjanger | |
| Dewey | |
| ISBN | 9788284272870
|
| ISSN |