Bloggen din om hørsel

Kunstig intelligens utfordrer hvordan teknologi er designet

Den menneskelige hjernen er smartere enn noen maskin, og det er derfor vi prøver å etterligne den ved hjelp av kunstig intelligens (AI). Men utvikling kan bare nå så langt som dagens teknologi tillater.

Kunstig intelligens,maskinlæring,machine learning,utvikling,fremtid,innovasjon,høreapparater,teknologi
08-13-2020

Hjernen vår er smartere og mer effektiv enn noen maskin. Hvert sekund henter hjernen vår mer enn 11 millioner informasjonsbiter fra omverdenen. Hjernen konverterer all denne dataen til nyttig informasjon ved å designe algoritmer som gjør at vi blant annet kan kjenne igjen ord i en samtale, sette pris på musikk, navigere gjennom byer og reagere på skilt som stopplys eller bilhorn. Og hjernen gjør alt dette på en gang.

Ville det ikke være kult om maskiner kunne tenke som mennesker gjør? Forskere har hatt den ideen siden 1940-tallet, men det er først de siste årene at vi har hatt teknologien til å gjøre kunstig intelligens, som maskinlæring, til virkelighet.

I dag implementeres AI (Artificial Intelligence) i virtuelle assistenter som Apples Siri og Amazons Alexa. AI hjelper med å estimere forsinkelser i trafikken og foreslå ruter i Google Maps, og kan gjenkjenne venners ansikter på et bilde på Facebook, og anbefale musikk på Spotify.

Den type teknologi brukes også i headset og høreapparater, med innovative selskaper som GN streber etter å gjenskape, og til og med overgå, hvordan vi hører naturlig som mennesker.

Kunstig intelligens (AI)

er maskiner som er i stand til å vurdere, lære og ta avgjørelser på samme nivå som et menneske. Det skilles mellom to forskjellige programmer innen kunstig intelligensforskning, nemlig sterk og svak AI. Svake AIer er systemer som ganske enkelt er i stand til å etterligne visse funksjoner i menneskelig tenkning, mens sterke AIer er systemer som virkelig har intelligens av samme art og dybde som  mennesker.

Maskinlæring

er et underfelt innen informatikk og kunstig intelligens, som gjør det mulig for datamaskiner å lære uten å ha blitt programmert til hvordan læringen skal foregå.

Hvorfor er hjernen så vanskelig å kopiere?

En av utfordringene med å utforme høreapparater som tar sikte på å etterligne naturlig hørsel, er at "hjernen" - mikrochippen - der alle "tanker og beregninger" finner sted, ikke er i nærheten av å være en menneskelig hjerne. I en telefon eller en bil kan chippen være så stor den vil, men i et lite høreapparat som sitter i eller bak et menneskelig øre, er det begrenset plass til en mikrochip. Mikrochippen i et høreapparat er mindre enn størrelsen på fingernegl, og batteriet som forsyner den med strøm er like kompakt.

 

Fra evolusjon til revolusjon

Hver gang vi designer et nytt høreapparat, flytter et dedikert team av chipdesignere de tidligere grensene for hva som var mulig, for å få mer kraft og effektivitet i chippen, noe som betyr at høreapparatet kan gjøre mer og vare lenger. Se videoen nedenfor om fremskritt innen chip-teknologi i GNs premium oppladbare høreapparat, ReSound LiNX Quattro.

 

 

 

Kort sagt så er ikke de chippene vi bruker i høreapparater i dag bygget for å motstå den tunge mentale belastningen som AI krever.

“De grunnleggende algoritmene som ble brukt i høreapparater i dag, ble utviklet for 15–20 år siden, og industrien har foredlet dem over tid. Så langt har hardwareutvikling vært en evolusjon, men overgangen til maskinlæring er en revolusjon for måten vi tenker på chipper og deres arkitektur i dag. Det er her vi ser de største mulighetene for utvikling,” forklarer Brian Dam Pedersen, Chief Technology Officer i GN Hearing.

 

Utfordringen med å få maskiner til å tenke som mennesker

Hvordan skiller AI seg fra andre teknologier, og hvorfor krever det så mye av maskinvaren? Det hele kan kokes ned til hvordan tanker eller prosessen er strukturert.

Ta en prosess som ordgjenkjenning. Hjernen din har designet algoritmer, så når du hører et ord som "nødsituasjon", forstår du det med en gang. Men når en datamaskin trenger å forstå et ord ved hjelp av tradisjonelle algoritmer, kreves det mye matematikk. Datamaskinen behandler lydene fra dette ordet i rekkefølge. Den hører at den starter med et ‘N’, for deretter å bla gjennom forskjellige alternativer for å finne ut at den andre bokstaven er en ‘Ø’, og så videre. Den behandler ordet i serie, mens hjernen gjør det parallelt, på en gang. Når vi snakker om tusenvis, eller til og med millioner, av informasjonsbiter som løper gjennom små kretsløp på en mikrobrikke, legger dette betydelig press på brikken og tømmer raskt batteriet

 
 

 

Og det er akkurat den utfordringen ingeniører står overfor når de prøver å designe AI-strukturer på mikrobrikker.

"Å bruke maskinlæring i selve høreapparatet betyr at dedikert hardware sannsynligvis er den eneste realistiske veien videre fordi strukturen er så forskjellig fra det vi vet i dag. Hardware som kjører maskinlæring er ikke som den hardwaren vi bruker i dag til normal signalbehandling," forklarer Brian Dam Pedersen.

 

Hvorfor kan maskinlæring være viktig for hørselen?

I dag foregår ikke maskinlæring i høreapparater i selve høreapparatet, men snarere i smarttelefonen, som har mye større kapasitet og som høreapparatene kan komme i kontakt med gjennom en app. Den bruker innspill fra brukerne av høreapparater for å lage analyser og anbefalinger for optimale innstillinger i forskjellige situasjoner, og foredler disse over tid - etter hvert som mer brukerdata kommer inn. Det vil være lettere å komme nærmere en helt naturlig hørsel ved å få AI til å kjøre på selve høreapparatchippen.

"Det neste trinnet er algoritmer som lærer av lydmiljøene som kommer inn i høreapparatet, for automatisk å justere innstillingene for å gi den beste opplevelsen i forskjellige situasjoner som på en restaurant, når en sykler på gaten eller ser på TV," sier Brian Dam Pedersen.

Den ultimate testen for høreapparater, som også kan lokke folk med normal hørsel, er å løse problemet med hvordan man hører bedre i støyende miljøer. Også kjent som Cocktail Party Effect - der det å skille tale fra støy har vært den vanskeligste nøtten å knekke.

Å implementere maskinlæring i høreapparatet betyr at det vil være i stand til å bestemme hvilken lyd eller stemme du vil høre på i en støyende situasjon, og fokusere på å gjøre den talen klar, samtidig som mengden distraherende bakgrunnsstøy reduseres. For mennesker med normal hørsel kan denne typen situasjoner, som for eksempel kan oppstå på restauranter og fester, være utfordrende nok, så tenk hvordan det er for en person med hørselstap - og tenk bare hva det kan bety hvis vi kunne overkomme den utfordringen.

 

Fremtidige løsninger som er mer menneskelige og mindre konstruerte

Selv om det kan virke ironisk, er det potensialet med å gjøre teknologi mer menneskelig  som er så spennende med å implementere maskinlæring i maskinvaren til høreapparater. Løsninger som etterligner hvordan vi som mennesker mottar informasjon, behandler den, reagerer på den og stadig lærer av den, betyr at vi i fremtiden kan forvente å se teknologier som er mindre top-down og menneskeskapt og mer bottom-up , som i denne sammenheng vil bety -  tenker selv.

Les også innlegget vårt "Flytter grensene for å bli verdens første", der du kan lese om et av de største gjennombruddene innen høreapparatteknologi – da GN lanserte verdens første høreapparat ved bruk av 2,4 GHz-teknologi i 2010.

Kilder: Artificial intelligence definition, Chambers 21st Century Dictionary
Machine learning definition, Google Developers Machine Learning Glossary
Applications of information theory: Physiology, Encyclopedia Britannica

Les mer

 

Del: