Explainable deep learning for human behaviour understanding : sleep monitoring, human activity recognition, and future opportunities for healthcare
Micheal DuttInngår i serie: Doctoral dissertations at the University of Agder (511)
Dutt, Micheal · Bok · Engelsk · utgitt 2024 · Doktoravhandlinger
Dutt, Micheal · Bok · Engelsk · utgitt 2024 · Doktoravhandlinger
Ikke ledig
Biblioteket har (for tiden) 0 eksemplarerHenter eksemplarliste...
Fakta
Laster innhold...
Kopiér til utklippstavle
*0012634257 *00520250528103434.0 *007ta *008241212s2024 no a e b 0 eng c *00904774cam a2200445 c 4500 *019 $bl *020 $a9788284272290$qheftet *035 $a(EXLNZ-47BIBSYS_NETWORK)999922597572202201 *035 $a(NO-DIMO)1b8460ff-836d-4044-ad3a-50eb0a0171b6 *035 $a(NO-LaBS)51267344(bibid) *035 $aoai:nb.no:pliktmonografi_000041394 *035 $aoai:nb.no:pliktmonografi_000041394 *040 $aNO-OsNB$bnob$erda *08204$a362.1028563$223/nor/20241212$qNO-KrUA *1001 $aDutt, Micheal$0(NO-TrBIB)1707990473333$4aut$_352836300 *24000$aExplainable deep learning for human behaviour understanding$_352836400 *24510$aExplainable deep learning for human behaviour understanding :$bsleep monitoring, human activity recognition, and future opportunities for healthcare$cMicheal Dutt *264 1$aGrimstad$bUniversity of Agder, Faculty of Engineering and Science$c2024 *264 4$c© 2024 *300 $axxii, 229 sider$billustrasjoner$c24 cm *336 $astillbilde$0http://www.rdaregistry.info/termList/RDAContentType/1014$2rdaco *336 $atekst$0http://rdaregistry.info/termList/RDAContentType/1020$2rdaco *337 $auformidlet$0http://rdaregistry.info/termList/RDAMediaType/1007$2rdamt *338 $abind$0http://rdaregistry.info/termList/RDACarrierType/1049$2rdact *4901 $aDoctoral dissertations at the University of Agder$v511$x1504-9272 *500 $aDelvis opptrykk av artikler *502 $aAvhandling (ph.d.) - Universitetet i Agder, Grimstad, 2024 *504 $aInneholder bibliografiske referanser *5203 $aDenne oppgaven handler om hvordan kunstig intelligens (AI) kan hjelpe oss å forstå menneskelig atferd bedre, spesielt innen helse. To hovedområder undersøkes: klassifisering av søvnstadier og gjenkjennelse av menneskelige aktiviteter, som falldeteksjon. Målet er å lage AI-systemer som er både nøyaktige og enkle å forstå, slik at helsepersonell kan stole på og bruke dem trygt i pasientbehandlingen. Vi kan gjøre AI-modeller mer forståelige ved å bruke dyp læring og Explainable AI (XAI). Helsepersonell kan få innsikt i hvordan og hvorfor modellen tar beslutninger, noe som er avgjørende for å bruke AI til å overvåke helse og gi riktig behandling. Forskningen i oppgaven søker å gjøre klassifiseringen av søvnstadier enklere og raskere ved hjelp av AI slik at vi unngår mye manuell tolkning. Den undersøker også hvordan AI kan gjenkjenne menneskelige bevegelser gjennom video, noe som kan hjelpe til med å overvåke eldre eller mennesker med helseutfordringer. Målet er å lage AI-modeller for å gjøre nøyaktige vurderinger som helsepersonell kan forstå. Forskningen utviklet AI-modeller som kan skille mellom ulike søvnstadier ved å analysere signaler fra en enkelt kanal (som EEG). SleepXAI-modellen bruker XAI-teknikken for å vise hvilke deler av signalet modellen fokuserer på slik at vi kan forstå hvordan beslutningene tas.AI-modeller er utviklet ved hjelp av videodata for å oppdage fall og ulike helserelaterte aktivitetsgjenkjenningssystemer. Systemet forklarer sin beslutning på en måte som helsepersonell kan forstå og bruker teknikker for å sikre personvern og nøyaktighet. Modellene utviklet i denne oppgaven kan tolke signaler og bilder uten å kreve manuell prosessering. Forklaringsteknikker som Grad-CAM gjør det mulig å se hvilke deler av dataene modellen legger vekt på, noe som er avgjørende for at AI skal kunne brukes trygt i helse. Funnene i oppgaven viser at AI, som er både nøyaktig og forståelig, kan være essensielt for helsevesenet. XAI-modeller kan hjelpe helsepersonell til å ta de riktige beslutningene, og denne teknologien kan etter hvert også brukes i andre helseområder. Gjennom denne oppgaven bidrar forskningen til å gjøre AI i helsevesenet mer pålitelig og forståelig. Dette gjør bruk av AI til å overvåke helse og gi bedre behandling enklere samtidig som det sikrer at helsepersonell har tillit til systemene. Hentet fra forfatterens avhandling, sett 12.12.24 *546 $aSammendrag på norsk *588 $aKatalogisert etter pliktavlevert trykkegrunnlag *653 0$ahelse$ahelsevesen$akunstig intelligens$adyp læring$amodellering$aprosesser$_352836500 *655 7$aDoktoravhandlinger$0(uri)https://id.nb.no/vocabulary/ntsf/61$2ntsf$_202811400 *7001 $aDutt, Micheal$0(NO-TrBIB)1707990473333$tExplainable deep learning for human behaviour understanding$_352836300 *7102 $aUniversitetet i Agder$0(NO-TrBIB)8001540$4pbl$_10899700 *7102 $aUniversitetet i Agder$bFakultet for teknologi og realfag$0(NO-TrBIB)14042509$4dgg$_11511600 *830 0$aDoctoral dissertations at University of Agder$x1504-9272$v511$w990713508374702201$_10899800 *85640$uhttps://urn.nb.no/URN:NBN:no-nb_pliktmonografi_000041394$3Fulltekst$yNettbiblioteket$zDigital representasjon *913 $aNorbok$bNB *917 $ad *999 $aoai:nb.bibsys.no:999920588327902202$b2025-01-22T01:05:05Z$z999920588327902202 ^