WEBVTT Kind: captions; Language: fi 1 00:00:02.320 --> 00:00:07.800 Tekoäly ja etiikkakurssin video, jossa käsittelen esimerkkitapausta 2 00:00:07.800 --> 00:00:18.260 eettisestä pohdinnasta koskien tekoälyn käyttämistä. 3 00:00:18.260 --> 00:00:22.110 Näkökulma. Videolla. 4 00:00:22.110 --> 00:00:26.300 On sellainen, että siinä huomioidaan tavoitteet, jotka 5 00:00:26.300 --> 00:00:30.890 liittyvät tekoäly ja etiikka opintojaksoon. 6 00:00:30.890 --> 00:00:37.250 Eli on määritelty, että opintojakson suoritettuaan opiskelijat tunnistaa 7 00:00:37.250 --> 00:00:43.010 datan käsittelyyn liittyviä eettisiä kysymyksiä ja ongelmia ja kykenee 8 00:00:43.010 --> 00:00:48.110 esittämään perusteltuja ratkaisuja niihin. 9 00:00:48.110 --> 00:00:52.130 Ja tällä videolla nyt sitten yritän. 10 00:00:52.130 --> 00:00:56.890 Esitellä sitä, että kuinka näitä tavoitteita voidaan 11 00:00:56.890 --> 00:01:02.300 pyrkiä osoittamaan analyysin keinoin. 12 00:01:02.300 --> 00:01:09.020 Opintojaksolla on myöskin määritelty joukko sisältöjä jaksolla tarkastellaan datan 13 00:01:09.020 --> 00:01:14.440 käsittelyyn digitaalisiin teknologioihin, tekoälyyn ja koneoppimiseen liittyviä 14 00:01:14.440 --> 00:01:19.990 keskeisiä eettisiä käsitteitä, periaatteita ja teorioita. 15 00:01:19.990 --> 00:01:22.040 Ja. 16 00:01:22.040 --> 00:01:28.820 Tällä videolla on yksi esimerkki, joka kytkeytyy edellä mainittuihin sisältöihin. 17 00:01:28.820 --> 00:01:36.080 Ja niihin kytkeytyyviin eettisiin periaatteisiin. 18 00:01:36.080 --> 00:01:40.430 Kurssilla kurssin sisältöihin on kerrottu sisältyvän. 19 00:01:40.430 --> 00:01:48.610 Myöskin informaatioteknologian ammattietiikkaa ja nyt sitten. 20 00:01:48.610 --> 00:01:56.470 Toisella videolla esittelen lyhyesti ammattietiikkaa koskevia asioita, 21 00:01:56.470 --> 00:02:02.430 mutta tämän videon esimerkkiä voidaan ajatella käytettävän. 22 00:02:02.430 --> 00:02:11.290 Myöskin tämän ammattietiikan tarkastelun ainakin jollakin jollakin tasolla. 23 00:02:11.290 --> 00:02:19.700 Kurssin sisältöihin on asiasanoja poimittu muutamia. 24 00:02:19.700 --> 00:02:24.760 Esimerkin omaisesti turvallisuus läpinäkyvyys yksityis ja oikeudenmukaisuus 25 00:02:24.760 --> 00:02:28.560 on sellaisia aika tavanomaisia. 26 00:02:28.560 --> 00:02:35.740 Eettiseen ajatteluun liittyviä arvoja, mitä tulee nyt sitten kirjallisuudessa. 27 00:02:35.740 --> 00:02:37.890 Esiintyviin. 28 00:02:37.890 --> 00:02:43.170 Tekoälyä ja siihen kytkeytyvien teknologioihin. 29 00:02:43.170 --> 00:02:47.870 Sisältyviä eettisiä kysymyksiä. 30 00:02:47.870 --> 00:02:54.620 Opintojakson kirjallisuudessa kirjallisuus on real world 31 00:02:54.620 --> 00:03:00.260 ei aio explore data scientist ja tätä. 32 00:03:00.260 --> 00:03:07.780 Kirjaa voi käyttää hyväksi erilaisten tapaus esimerkkien analyysiin eri näkökulmista 33 00:03:07.780 --> 00:03:15.900 kirjassa on huomattavasti laajemmin muotoiltu erilaisia eettisiä 34 00:03:15.900 --> 00:03:21.870 teorioita eri kulttuurialoita erilaisia näkökulmia siihen tällä videolla keskityn 35 00:03:21.870 --> 00:03:27.300 aika lailla yksinkertaiseen lähestymistapaan. 36 00:03:27.300 --> 00:03:31.640 Mitä tulee, sanotaanko etiikan. 37 00:03:31.640 --> 00:03:35.930 Globaaliin kuvaan nähden nimittäin semmoista ehkä tavanomaista 38 00:03:35.930 --> 00:03:38.980 länsimaista lähestymistapaa käytetään. 39 00:03:38.980 --> 00:03:43.830 Tässä tarkoitus ei ole kuitenkaan sen kummemmin arvottaa. 40 00:03:43.830 --> 00:03:51.290 Erilaisten lähestymistapojen merkitystä tai roolia sen enempää. 41 00:03:51.290 --> 00:03:57.220 Mutta menee nyt sitten esimerkkitapauksen ja nyt tää on esimerkki. 42 00:03:57.220 --> 00:04:00.430 Tapaus on sellainen jossa. 43 00:04:00.430 --> 00:04:05.760 Tuossa noin 2000 kaksikymmentäkolme vuoden. 44 00:04:05.760 --> 00:04:14.300 Ajankohtaisiin ilmiöihin liittyy se, että että tekoäly ja kielimallit. 45 00:04:14.300 --> 00:04:16.440 Ponnahtivat eritt. 46 00:04:16.440 --> 00:04:21.280 Sen rajusti pintaan tai ehkä 2000 kaksikymmentäkaksi kaksikymmentäkolme vuonna 47 00:04:21.280 --> 00:04:29.290 sivut pinta on teko tekoäly ja kielimallit nimenomaan opiskelun 48 00:04:29.290 --> 00:04:36.050 apuvälineenä ja tähän liittyen sitten järjestettiin yhteiskuntatieteiden ja 49 00:04:36.050 --> 00:04:41.870 filosofian laitoksella sellainen tapahtuma, jossa oli. 50 00:04:41.870 --> 00:04:49.270 Joukko asiasta kiinnostuneita ja asiaan jossain määrin perehtyneitä ihmisiä ja itse olin 51 00:04:49.270 --> 00:04:57.590 sitten myös siinä mukana siinä tapahtumassa ja esitin esitin joitakin ajatuksia liittyen 52 00:04:57.590 --> 00:05:05.340 kielimallien käyttöön ja tuolloin sitten oli chat GPT yksi ki. 53 00:05:05.340 --> 00:05:08.620 Mallina erityisesti esillä. 54 00:05:08.620 --> 00:05:14.440 Unohtamatta muitakaan, mutta tää etninen. 55 00:05:14.440 --> 00:05:20.070 Probleemi tai probleemikenttä oli sellainen että oli. 56 00:05:20.070 --> 00:05:27.840 Huomattu tämän ilmiön muodostuneen hyvin merkittäväksi ja olin sitten syytä ottaa 57 00:05:27.840 --> 00:05:34.660 kantaa, että miten yliopisto instituutiona ja ehkäpä nyt sitten tässä tilaisuudessa 58 00:05:34.660 --> 00:05:40.820 yhteiskuntatieteiden ja filosofian laitos niinku omana instituution osanaan nyt 59 00:05:40.820 --> 00:05:47.430 sitten suhtautuu ja ohjeistaa tekoälyn käyttöön. 60 00:05:47.430 --> 00:05:49.710 Ja. 61 00:05:49.710 --> 00:05:56.810 Nyt sitten käyttää hyväksi sellaista nähdäkseni aika hyvää menettelytapaa eettisten ongelmien 62 00:05:56.810 --> 00:06:03.850 käsittelyyn, niin niin pyrin nyt sitten esittämään joitakin ajatuksia mitä mitä tulimme tehneeksi 63 00:06:03.850 --> 00:06:09.790 tuolloin tai minkälaisia ajatuksia tuohon tekoälyn käyttöön liittyen. 64 00:06:09.790 --> 00:06:16.010 Ja nyt näkökulma luonnollisesti tähän tekoälyyn ei ole. 65 00:06:16.010 --> 00:06:20.620 Ei ole suorastaan teknologian kehittäjä tai koodaaja tai tai 66 00:06:20.620 --> 00:06:25.810 tällainen, vaan ehkäpä enemmän käyttäjä tai. 67 00:06:25.810 --> 00:06:31.920 Instituution se osa, jossa käyttäjä pohtii, että miten tähän pitäisi suhtautua 68 00:06:31.920 --> 00:06:36.590 ja minkälaisia eettisiä linjauksia pitäisi luoda. 69 00:06:36.590 --> 00:06:39.360 No menettelytavasta kun tulee vastaan. 70 00:06:39.360 --> 00:06:46.550 Kysymys on on hyvä tehdä analyysi eli ensiksi tunnistaa asia. 71 00:06:46.550 --> 00:06:48.670 Öö mistä on kyse? 72 00:06:48.670 --> 00:06:57.200 Ketä asia koskee ja minkälaisia moraalisia intressejä ihmisillä mahtaa tähän olla? 73 00:06:57.200 --> 00:07:02.530 Oli ehkä aika hätäisiäkin. 74 00:07:02.530 --> 00:07:05.990 Reaktioita liittyen tekoälyyn niin kielimallien ja niiden 75 00:07:05.990 --> 00:07:11.890 käyttöön yliopisto opiskelussa joitakin komm. 76 00:07:11.890 --> 00:07:20.080 Te pidin ehkä hätäisenä, että kun tunnistettiin jollakin tavalla mahdollisuus käyttää tekoälyä 77 00:07:20.080 --> 00:07:27.750 vilppiin, niin sitten ne esitettiin ratkaisu sen kummemmin pohtimatta, että palataan ruutupaperille 78 00:07:27.750 --> 00:07:34.120 menetelmään ja ja tällainen lähestymistapa tietenkin. 79 00:07:34.120 --> 00:07:40.540 Estää. Tekoälyn käytön vilpin keinona. 80 00:07:40.540 --> 00:07:48.240 Siinä muodossa kun se ehkä oli esillä, mutta voisi olla asiallista ehkä pohtia laajemmin, 81 00:07:48.240 --> 00:07:55.530 että mistä asiasta on kyse ja ja mitä seurauksia sitten tällä asialla olisi. 82 00:07:55.530 --> 00:07:57.330 No. 83 00:07:57.330 --> 00:08:02.240 Etiikan teorian ja käsitteiden muodostaminen on. 84 00:08:02.240 --> 00:08:06.860 Tässä eettisessä pohtimisessa erittäin tärkeää, eli on syytä reflektoida 85 00:08:06.860 --> 00:08:12.870 käyttämien käsitteitä ja ja pitää ehkä mieli avoimena. 86 00:08:12.870 --> 00:08:18.610 Uuden tyyppisten ongelmien vastaan tullessa, että että mahtavatko käytettävät 87 00:08:18.610 --> 00:08:24.590 etiikan teoriat ja käsitteet olla käyttökelpoisia? 88 00:08:24.590 --> 00:08:35.800 Informaation etiikan alalla laajemmin ottaen on käyty viime vuosikymmeninä keskustelua. 89 00:08:35.800 --> 00:08:42.220 Datan informaation tiedon ja vastaavien. 90 00:08:42.220 --> 00:08:45.740 Asioiden koneellisen käsittelyn. 91 00:08:45.740 --> 00:08:51.550 Suhteen ja ja on olemassa sellaisia kantoja, jotka olennaisesti sanovat, 92 00:08:51.550 --> 00:08:57.900 että vanhat etiikan teoriat riittävät ja ja ei ole mitään uutta informaation 93 00:08:57.900 --> 00:09:00.310 käsittelyssä tullut vastaan. 94 00:09:00.310 --> 00:09:05.410 Myöskään näiden tekoälyjen tai muiden yhteydessä. 95 00:09:05.410 --> 00:09:09.040 Mutta on sitten sellaisiakin. 96 00:09:09.040 --> 00:09:14.630 Eetikkoja ja etiikan perusteita tutkivia, joiden mukaan on uudella tavalla 97 00:09:14.630 --> 00:09:18.860 pohdittava tai ainakin täydennettävä vanhaa eettistä ajattelua. 98 00:09:18.860 --> 00:09:24.080 Joka tapauksessa näiden tunnistaminen on on keskeinen asia. 99 00:09:24.080 --> 00:09:31.650 No kun tehtäväksi annetaan eettisten eettisen kannan muodostuksen tekeminen 100 00:09:31.650 --> 00:09:38.010 että ja ja eettisten ratkaisujen perustelu, niin on mietittävä, että mikä 101 00:09:38.010 --> 00:09:42.160 toimintatapa valitaan ja millä perusteella. 102 00:09:42.160 --> 00:09:47.160 Ja perusteet liittyvät edellä mainittuun etiikan teorioiden ja lähestymistapojen 103 00:09:47.160 --> 00:09:51.960 yhteyteen koskeva perusteluissa sitten tuodaan esille se ajattelutapa, 104 00:09:51.960 --> 00:09:56.650 joka teoriassa on muodostettu. 105 00:09:56.650 --> 00:10:04.010 Sitten etiikan ratkaisuja kun tarkastellaan niin niin niin on hyvä usein palata tehtyihin 106 00:10:04.010 --> 00:10:07.810 ratkaisuihin ja toimintatapoihin ja menettelytapojen muodostamiseen. 107 00:10:07.810 --> 00:10:11.520 Sillä on hyvä arvioida. 108 00:10:11.520 --> 00:10:16.530 Että onko päätöksenteko siinä hetkessä ollut hyvä ja sitten ehkä sitten seurata, että mitä 109 00:10:16.530 --> 00:10:23.620 siitä on seurannut ja mahdollisesti kehittää tehtyjä tehtyjä toimintatapoja? 110 00:10:23.620 --> 00:10:25.720 Ja tällaista menettelytapaa käyttää. 111 00:10:25.720 --> 00:10:29.070 Nyt tarkoitus on on edetä. 112 00:10:29.070 --> 00:10:33.730 Ja kuten sanottu, tää tilaisuus, jossa nyt sitten 2000 113 00:10:33.730 --> 00:10:38.800 kaksikymmentäkolme vuonna olin mukana. Niin niin siellä. 114 00:10:38.800 --> 00:10:46.580 Esittelin ajatuksen, että pitäisi pyrkiä tunnistamaan osalliset ja heidän intressinsä. 115 00:10:46.580 --> 00:10:49.200 Eli tietysti moraalin näkökulmasta. 116 00:10:49.200 --> 00:10:56.160 Sitten sen jälkeen etenen käytettävään etiikan teoriaa malliin. 117 00:10:56.160 --> 00:11:01.530 Hyvin väistämättä nyt tässä on aika aika tiivis ja ja ehkä vain osa osa kaikista 118 00:11:01.530 --> 00:11:06.990 mahdollisista ajatuksista mahdollista ottaa huomioon. 119 00:11:06.990 --> 00:11:11.610 Ja sitten esitän jonkun näköisen ajatuksen, että mitähän tässä voitaisiin 120 00:11:11.610 --> 00:11:17.330 tehdä ja ja perustella sitten sitä ja nyt sitten tätä arviointia ei ole 121 00:11:17.330 --> 00:11:23.860 tehty tämän jälkeen sen kummemmin, mutta tämä video. 122 00:11:23.860 --> 00:11:28.320 Ja tämän yhteys videon tekemisen yhteys on ehkä yks semmoinen kohta, 123 00:11:28.320 --> 00:11:34.130 jossa tämmöistä arviointia voi voi tuota tehdä. 124 00:11:34.130 --> 00:11:37.680 No osalliset ja heidän intressinsä. 125 00:11:37.680 --> 00:11:42.320 Ja jos ajatellaan nytten, että ongelman tematiikka liittyy tekoälyyn 126 00:11:42.320 --> 00:11:47.880 yliopisto opiskelussa, niin ketä ovat ne osalliset, joihin tämä jollakin 127 00:11:47.880 --> 00:11:51.480 tapaa liittyy moraalin näkökulmasta? 128 00:11:51.480 --> 00:11:55.930 Nyt ilmeistä on se, että siellä on opiskelija. 129 00:11:55.930 --> 00:12:03.700 Porukka mukana opettajaporukka on mukana ikään kuin osallisina 130 00:12:03.700 --> 00:12:11.050 ja nää on hyvin ilmeisiä jos ajatellaan. Opiskelu. 131 00:12:11.050 --> 00:12:17.620 Toimintoa kaiken kaikkiaan, mutta sitten jos hiukan asiaan laajemmin pohtii niin niin siihen 132 00:12:17.620 --> 00:12:25.650 liittyy sitten opinto opintohallinto, joka on osaltaan sitten mukana. 133 00:12:25.650 --> 00:12:28.980 Tukemassa. Opintojen. 134 00:12:28.980 --> 00:12:34.860 Toteuttamista yliopistohallinto on siinä mukana siinä mielessä, että sieltä 135 00:12:34.860 --> 00:12:39.440 sitten annetaan ohjeistuksia ja tehdään linjauksia. 136 00:12:39.440 --> 00:12:45.900 Mahdollistetaan erilaisten teknologisten teknologioiden käyttö ja säätelee sitä, että 137 00:12:45.900 --> 00:12:54.220 miten opiskelu käytännössä tapahtuu tai miten suoritukset toteutetaan ja niin edespäin 138 00:12:54.220 --> 00:13:02.660 ja tekoälyn tekoälyn voisi ajatella liittyvän siihen porukkaan myös. 139 00:13:02.660 --> 00:13:04.500 Toisaalta sitten. 140 00:13:04.500 --> 00:13:08.720 Tekoäly teknologioiden tuottajat ja ja itse tekoälyt 141 00:13:08.720 --> 00:13:11.710 voitaisiin ajatella jollakin tapaa. 142 00:13:11.710 --> 00:13:19.270 Osallisena tähän tähän tekoälyn opiskelu osioon myös, että vaikka 143 00:13:19.270 --> 00:13:24.260 tekoälyä ei välttämättä olisi suunniteltu tai. 144 00:13:24.260 --> 00:13:32.500 Rakennettu opiskelukäyttöä varten, niin heillä saattaa olla siihen intressejä. 145 00:13:32.500 --> 00:13:37.340 Myöskin voisi ajatella, että että tulevaisuudessa. 146 00:13:37.340 --> 00:13:46.020 Etenkin voisi tekoälyt olla merkittävä merkittävässä roolissa opiskelu opiskelumaailmassa 147 00:13:46.020 --> 00:13:50.140 eli voitaisiin rakentaa itseopiskeluprosesseja tekoälyjen ympärille. 148 00:13:50.140 --> 00:13:58.120 Tai sitten että tekoäly ja on on enenevässä määrin mukana oletettuna 149 00:13:58.120 --> 00:14:02.320 opiskelutapahtumassa ja prosesseissa. 150 00:14:02.320 --> 00:14:06.400 Eli näitä näitä voisin jopa ajatella. 151 00:14:06.400 --> 00:14:13.960 Intressiryhmiä yliopisto instituutio kokonaisuutena, samoin yhteiskunta ja valtio laajemminkin 152 00:14:13.960 --> 00:14:21.750 ja ehkä ennen kaikkea yhteiskunta yhteiskuntaa voisi ajatella. 153 00:14:21.750 --> 00:14:26.210 Toimineella on intressi tähän asiaan sillä, että etenkin jos 154 00:14:26.210 --> 00:14:32.090 on ollut pelkona, että TK älyt jollakin tapaa. 155 00:14:32.090 --> 00:14:38.130 Vaikuttavat siihen, että minkälaista oppia opiskelijat opinnoistaan 156 00:14:38.130 --> 00:14:44.790 saavat tai eivät saa niin tällöin ikään kuin tulevaisuuden asiantuntijoiden 157 00:14:44.790 --> 00:14:49.390 rooli voidaan ajatella heikentyvä. 158 00:14:49.390 --> 00:14:55.950 Mikäli yliopisto opiskelussa väärällä tavalla opitaan tukeutumaan tekoälyyn. 159 00:14:55.950 --> 00:15:00.070 Toisaalta sitten voisi ajatella myöskin niin, että yhteiskunnassa 160 00:15:00.070 --> 00:15:03.400 voidaan edellyttää, että yliopisto opintojen. 161 00:15:03.400 --> 00:15:13.190 Myötä ihmiset osaavat asiantuntijatyössä käyttää tekoälyä tehokkaasti. 162 00:15:13.190 --> 00:15:16.930 No. Tässä. 163 00:15:16.930 --> 00:15:20.710 On mainittuna nyt koko joukko. 164 00:15:20.710 --> 00:15:27.070 Tällaisia intressiryhmiä ja ja on ehkä nähtävissä se, että minkälaisia 165 00:15:27.070 --> 00:15:30.750 intressejä näillä kullakin ryhmällä saattaa olla. 166 00:15:30.750 --> 00:15:34.910 No kriittisen arvion puolesta voisi miettiä, että onkohan tässä mainittu 167 00:15:34.910 --> 00:15:41.190 kaikki mahdolliset intressi, intressiryhmät ja. 168 00:15:41.190 --> 00:15:50.860 Yksi kriittinen huomio tässä voisi olla se, että vaikkapa kielimallien data. 169 00:15:50.860 --> 00:15:56.450 Ei ole tässä esillä ja voisi ajatella, että se data, jota kielimallit käyttävät 170 00:15:56.450 --> 00:16:05.060 hyväkseen on jonkun tuottama ja ja tällä jollakulla saattaisi olla intressi 171 00:16:05.060 --> 00:16:10.290 siihen, että miten tämä data tulee käytettyä. 172 00:16:10.290 --> 00:16:14.690 Ja siinä mielessä tämä osalliset. 173 00:16:14.690 --> 00:16:19.020 Tai osallistui mainittujen osallistujien joukko ja ja ryhmät 174 00:16:19.020 --> 00:16:22.390 eivät vielä ole kattavasti tässä esillä. 175 00:16:22.390 --> 00:16:29.040 Eli tämmöisiä kritiikin voisi voisi tähän esittää. 176 00:16:29.040 --> 00:16:34.420 No. Esitin 2000 kaksikymmentäkolme. 177 00:16:34.420 --> 00:16:39.130 Hypi laitoksen tilaisuudessa. 178 00:16:39.130 --> 00:16:44.390 Tämmöisen lähestymistavan tähän tekoälyn käsittelyyn yliopisto opiskelussa ja 179 00:16:44.390 --> 00:16:52.270 opetuksessa, että että meidän tulee muodosta periaatteet tekoälyn. 180 00:16:52.270 --> 00:16:57.560 Käyttöä varten. Ja. 181 00:16:57.560 --> 00:17:03.250 Ennen kaikkea kun pohditaan, että mitä sääntöjä, mitä ohjeistuksia tuotetaan, niin mietitään, 182 00:17:03.250 --> 00:17:10.490 että minkälaisia periaatteita ne säännöt säännöt taustaltaan nyt sitten oikeastaan pitävät 183 00:17:10.490 --> 00:17:16.480 sisällä ja tekoäly tässä nyt ymmärretään aika laajasti, että siinä ei ole kyse pelkästään 184 00:17:16.480 --> 00:17:22.820 kielimalleista, vaan voidaan ajatella kaiken kaikennäköisiä ohjelmia ja algoritmejä ja 185 00:17:22.820 --> 00:17:27.890 muita teknisiä välineitä tässä yhteydessä. Nyt se miksi? 186 00:17:27.890 --> 00:17:33.340 Ajattelen lähtökohtaisesti olevan hyvin ongelmallista, että kielletään niin 187 00:17:33.340 --> 00:17:37.460 sanottu tekoälyn käyttö tai algoritmien käyttö opinnoissa. 188 00:17:37.460 --> 00:17:40.540 Se on on. 189 00:17:40.540 --> 00:17:45.550 Sanotaan sanotaan näin, että se on käytännössä oikeastaan aika. 190 00:17:45.550 --> 00:17:48.460 Omituinen vaate sillä. 191 00:17:48.460 --> 00:17:54.340 On jo vuosi vuosia ja vuosikymmeniä ollut käytössä algoritmeja 192 00:17:54.340 --> 00:18:00.020 ohjelmia, jotka tukevat erilaisia toimintoja. 193 00:18:00.020 --> 00:18:04.010 Osa niistä on varsin yksinkertaisia vaikkapa. 194 00:18:04.010 --> 00:18:11.330 Oikeinkirjoituksen tarkistus väline jossain tekstinkäsittelyohjelmassa tai tai vastaavia ja 195 00:18:11.330 --> 00:18:19.720 tuntuisi oudolta ainakin nykypäivän näkökulmasta kieltää tällaisten käyttö. 196 00:18:19.720 --> 00:18:22.780 Ja jopa voitaisiin ajatella, että. 197 00:18:22.780 --> 00:18:29.480 Pitäisi olla velvollisuus käyttää tekstin oikeinkirjoituksen tarkistamista 198 00:18:29.480 --> 00:18:36.600 sen sen koneellista tarkistamista hyväksi on olisi resurssien haaskaamista 199 00:18:36.600 --> 00:18:42.420 laittaa ihmisiä käymään läpi tekstiä. 200 00:18:42.420 --> 00:18:47.580 Jonka kone voisi tehdä hyvin helposti tai joka ainakin koneavustaisesti olisi 201 00:18:47.580 --> 00:18:55.380 hyvin, hyvin helppoa ja ja ehkäpä luotettavampaa kuin pelkästään. 202 00:18:55.380 --> 00:19:01.820 Ihmiskatseen ja tarkistusmenettelyn avulla. No. 203 00:19:01.820 --> 00:19:06.430 Kun pohditaan, että miten ohjeistetaan? 204 00:19:06.430 --> 00:19:10.530 Tekoälyn käytössä niin niin ehdotan. 205 00:19:10.530 --> 00:19:18.290 Ja ehdotin tällaisia periaatteita, joiden mukaan niitä sääntöjä tulisi muodostaa. 206 00:19:18.290 --> 00:19:20.360 Ensinnäkin saan. 207 00:19:20.360 --> 00:19:26.770 Pien ja ohjeet ohjeiden tulee kytkeytyä tieteellisen toiminnan periaatteisiin. 208 00:19:26.770 --> 00:19:34.910 Tieteellisten toimijoiden tieteellisten toimintojen periaatteet ovat tiedeyhteisön 209 00:19:34.910 --> 00:19:42.870 perustavia arvoja ja niitä tuossa tuonnempana käsittelen hiukan laajemmin. 210 00:19:42.870 --> 00:19:47.760 Mutta ideana on siis se, että mitä ikinä ohjeistetaan tekoälyn 211 00:19:47.760 --> 00:19:52.350 käytöstä, niin sen täytyy olla kytköksissä. 212 00:19:52.350 --> 00:19:58.700 Viime kädessä tieteen tekemisen periaatteisiin laajemmin. 213 00:19:58.700 --> 00:20:06.800 Toiseksi sääntöjen ja ohjeistuksen tulee seurata tiedeyhteisöjen käytänteitä ja 214 00:20:06.800 --> 00:20:08.600 tää on. 215 00:20:08.600 --> 00:20:17.090 Tuohon ensimmäiseen verrattuna konkreettisempi ajatus ajatus on se, että tiedeyhteisössä 216 00:20:17.090 --> 00:20:23.310 on muodostunut joukko käytännöllisiä toimintatapoja. 217 00:20:23.310 --> 00:20:25.400 Tää hyvin. 218 00:20:25.400 --> 00:20:32.600 Kattavasti erilaisissa tiedon tuottamisen vaiheissa ja opiskeluvaiheessa 219 00:20:32.600 --> 00:20:40.310 on käytössä erilaisia sääntöjä ja nyt sitten uudet säännöt tulisi pystyä 220 00:20:40.310 --> 00:20:45.780 kytkemään näihin vanhoihin käytänteisiin. 221 00:20:45.780 --> 00:20:51.880 Esimerkiksi konkreettisesta asiasta, joka joka tässä on ollut mielessä, 222 00:20:51.880 --> 00:20:58.030 on lähdeviitteiden käyttö tiedeyhteisössä. 223 00:20:58.030 --> 00:21:03.610 On tapana viitata lähteisiin tietyllä tavalla ja erilaisiin 224 00:21:03.610 --> 00:21:08.100 lähteisiin liittyy hiukan erilaisia lähdeviite. 225 00:21:08.100 --> 00:21:13.910 Käytänteitä ja olisi hyvä nyt sitten uusien tekoälyyn käyttöön liittyvien 226 00:21:13.910 --> 00:21:19.290 viitteiden ja ja viitteiden ohjeistuksien kytkeytyä ja sopia yhtenäinen 227 00:21:19.290 --> 00:21:28.120 vanhojen kanssa vanhojen sääntöjen kanssa. Kolmanneksi. 228 00:21:28.120 --> 00:21:33.530 Työergonomia asia eli käytännöt mitkä tuossa toisessa 229 00:21:33.530 --> 00:21:42.390 vaiheessa on esitetty, niin kytkeytyy. Siihen että. 230 00:21:42.390 --> 00:21:46.510 Tieteellisessä toiminnassa täytyisi pystyä mahdollisimman 231 00:21:46.510 --> 00:21:55.200 tehokkaasti ja vaivattomasti ja helposti. Seuraamaan käytäntöjä. 232 00:21:55.200 --> 00:22:00.190 Emme voi ottaa käyttöön sellaisia käytäntöjä, jotka. 233 00:22:00.190 --> 00:22:02.200 Vievät. 234 00:22:02.200 --> 00:22:07.180 Liikaa aikaa, jotka raskauttavat sitä toiminnan tekemistä. 235 00:22:07.180 --> 00:22:14.060 Emme esimerkiksi voi ottaa käyttöön sellaista tarkistusmenettelyä, joka vie sitten 236 00:22:14.060 --> 00:22:20.880 opettajilta kaiken ajan ohjauksen ja ja tehtävien tarkistuksen. 237 00:22:20.880 --> 00:22:25.360 Suhteen. Neljäs. 238 00:22:25.360 --> 00:22:32.950 Viimeinen tekoäly käyttö tulee nähdä osana asiantuntijan taitoja ja osaamista, 239 00:22:32.950 --> 00:22:39.260 joka yliopistossa hankitaan ja se tulee nähdä. 240 00:22:39.260 --> 00:22:47.600 Eräänä työelämätaitona ja tässä nyt oletuksena on se, että tekoäly 241 00:22:47.600 --> 00:22:49.810 tulee olemaan. 242 00:22:49.810 --> 00:22:54.530 Tulevaisuudessakin osa inhimillistä toimintaa ja erityisesti 243 00:22:54.530 --> 00:22:59.330 asiantuntijan työssä apuvälineenä. 244 00:22:59.330 --> 00:23:03.150 Tavallisesti oletetaan että. 245 00:23:03.150 --> 00:23:08.110 Asiantuntija, joka yliopistosta valmistuu tai hänellä 246 00:23:08.110 --> 00:23:14.010 on hyvät ja riittävät taidot suoriutua. 247 00:23:14.010 --> 00:23:19.920 Asiantuntija tehtävänä tehtävässään ja ja mikäli nyt sitten tulevaisuudessa 248 00:23:19.920 --> 00:23:26.150 tosiaan tekoäly on keskeisessä roolissa työelämässä, niin yliopiston 249 00:23:26.150 --> 00:23:34.240 tulisi sitten valmistaa opiskelijoita tähän. 250 00:23:34.240 --> 00:23:36.580 No hiukan konkreettisemmin. 251 00:23:36.580 --> 00:23:42.340 Nyt sitten näihin periaatteisiin liittyen ensimmäinen sääntöjen ja ohjeiden 252 00:23:42.340 --> 00:23:46.460 tulee kytkeytyä tieteellisen toiminnan periaatteisiin. 253 00:23:46.460 --> 00:23:55.220 Nyt esimerkiksi voitaisiin ajatella tämän periaatteen tarkoittavan sitä, että kun 254 00:23:55.220 --> 00:24:04.780 eipisteetmiset arvot eli tiedolliset arvot, jotka ovat tieteellisen tiedonmuodostuksen. 255 00:24:04.780 --> 00:24:13.260 Perustavia asioita niin tekoälyn käytössä tulisi pyrkiä varmistamaan, 256 00:24:13.260 --> 00:24:21.660 että tuotettu informaatio täyttää perinteiset arvot ja näin ne tulee olla kriittisesti 257 00:24:21.660 --> 00:24:26.580 arvioitavissa. Eli se menetelmätapa, jolla. 258 00:24:26.580 --> 00:24:28.890 Tarkastellaan. 259 00:24:28.890 --> 00:24:35.360 Tiedollisia tuotoksia niin niin niin tulisi olla arvioitavissa. 260 00:24:35.360 --> 00:24:42.570 Näitä arvoja on tässä mainittuna koko joukko, niin kyse on totuuden tavoittelu. 261 00:24:42.570 --> 00:24:49.390 Totuuden tavoittelemisesta ja siitä, että ymmärretään selkeästi ja tarkasti. 262 00:24:49.390 --> 00:24:51.560 Mistä on kyse. 263 00:24:51.560 --> 00:24:59.720 Ollaan läpinäkyviä siitä, että mistä data ja teoriat lopulta juontavat juurensa. 264 00:24:59.720 --> 00:25:02.350 Miten perustelemme esitettyjä väitteitä? 265 00:25:02.350 --> 00:25:05.490 Minkälaiseen evidenssiin pohjautuen? 266 00:25:05.490 --> 00:25:11.010 Tiede ajatellaan avoimeksi ei salatiedeteeksi. 267 00:25:11.010 --> 00:25:14.880 Tieteellisen tiedon tulee olla luotettavaa eli se menetelmä, 268 00:25:14.880 --> 00:25:17.710 jolla se on tuotettu, on mielekäs. 269 00:25:17.710 --> 00:25:23.550 Ollaan objektiivisia, ei pyritä ajamaan yksipuolisia 270 00:25:23.550 --> 00:25:31.380 intressejä esimerkiksi ja niin poispäin. No tiedeyhteisön. 271 00:25:31.380 --> 00:25:36.520 Käytänteet ovat sellaisia, että ne pyrkivät takaamaan 272 00:25:36.520 --> 00:25:41.350 edellä mainittujen arvojen kaltaisten. 273 00:25:41.350 --> 00:25:46.550 Toteutumisen käytännössä ja nyt sitten tekoälyn käytön 274 00:25:46.550 --> 00:25:50.740 suhteen voitaisiin ajatella, että sen. 275 00:25:50.740 --> 00:25:57.390 Tulee olla avointa ja julkista se pitää olla kritisoitävissä. 276 00:25:57.390 --> 00:26:01.710 Se tuo tos metodologisesti sen täytyisi olla perusteltua 277 00:26:01.710 --> 00:26:08.050 ja se tieteellisen menetelmäopillisen. 278 00:26:08.050 --> 00:26:12.870 10 menetelmäopintojen perusteiden mukaisia. 279 00:26:12.870 --> 00:26:19.830 Tiedon tavoittelussa pitää voida käyttää välineitä, jotka edistävät ymmärryksen kasvua. 280 00:26:19.830 --> 00:26:26.290 Kuitenkin tieteen ja etiikan. Rajoissa. 281 00:26:26.290 --> 00:26:32.400 No. Näiden tiedeyhteisöjen käytänteiden. 282 00:26:32.400 --> 00:26:37.720 Tarkastelu tekoälyn valossa nähdäkseni vaatii aika aika 283 00:26:37.720 --> 00:26:43.560 suuren ponnistuksen siinä mielessä, että se. 284 00:26:43.560 --> 00:26:51.490 Tekoälyn datan käsittely ei ole välttämättä ihmisille tuttu. 285 00:26:51.490 --> 00:26:55.380 Ja. Voi olla niin että. 286 00:26:55.380 --> 00:26:59.640 On sellaisia tekoälyjä, jotka eivät. 287 00:26:59.640 --> 00:27:08.600 Ole avoimia eli ulkopuolinen ei välttämättä tiedä, että miten sitä käsittelyä. 288 00:27:08.600 --> 00:27:12.480 Jokin algoritmi on on tehnyt minkälaisten sääntöjen 289 00:27:12.480 --> 00:27:21.630 tai minkälaisen logiikan mukaisesti. Ja. 290 00:27:21.630 --> 00:27:30.270 Tää on sikäli ongelmallinen asia, että että meillä on vertailukohtana ihminen ja eli inhimillinen 291 00:27:30.270 --> 00:27:36.320 tiedonkäsittely tai datan käsittely ja meillä saattaa olla semmoinen. 292 00:27:36.320 --> 00:27:43.240 Kuva, että meillä on ihmistä koskevan tiedonkäsittelyn suhteen ikään 293 00:27:43.240 --> 00:27:47.660 kuin täysi mahdollisuus tietää, että miten se tapahtuu. 294 00:27:47.660 --> 00:27:52.400 Itse suhtaudun hiukan skeptisesti siihen, että ymmärrämmekö 295 00:27:52.400 --> 00:27:56.340 me kovinkaan tarkasti kaikkiin asioiden suhteen. 296 00:27:56.340 --> 00:28:01.760 Myöskään inhimillistä datan käsittelyä ja sitä, että miten se tapahtuu 297 00:28:01.760 --> 00:28:07.670 ja voi olla niin, että tekoälyltä vaaditaan joskus enemmän. 298 00:28:07.670 --> 00:28:14.410 Kuin mitä inhimillistä ajattelulta ja ja tää sitten muodostaa oman ongelmansa, mutta 299 00:28:14.410 --> 00:28:21.470 joka tapauksessa periaatteen tasolla kun me tarkastelemme tekoälyn käyttöä sana laajassa 300 00:28:21.470 --> 00:28:28.550 mielessä, niin meidän tulisi nyt pyrkiä siihen, että voimme kriittisesti punnita sitä 301 00:28:28.550 --> 00:28:35.170 sellainen tekoäly, joka on suljettu pimennossa tai salattu niin niin sitä on ikään 302 00:28:35.170 --> 00:28:37.450 kuin tieteen periaatteiden pohjalta. 303 00:28:37.450 --> 00:28:40.150 Vaikea hyväksyä käytettäväksi. 304 00:28:40.150 --> 00:28:48.870 Ja mikäli käytetään tekoälyä niin sen pitäisi olla mahdollisimman avointa. 305 00:28:48.870 --> 00:28:50.830 No tää työergonomia. 306 00:28:50.830 --> 00:28:55.990 Asia on sellainen, että että meidän tulisi muodostaa sääntöjä ja ohjeistuksia 307 00:28:55.990 --> 00:29:00.550 siten, että niitä voitaisiin käytännössä myöskin noudattaa. 308 00:29:00.550 --> 00:29:05.520 Nyt on selvää, että yliopistojen resurssit ovat rajallisia. 309 00:29:05.520 --> 00:29:09.310 Opettajien resurssit ovat rajallisia. 310 00:29:09.310 --> 00:29:12.880 Samoin opiskelijoiden hallinnon ja muiden osallisten resurssit 311 00:29:12.880 --> 00:29:17.640 ovat rajallisia ja ja paineet ovat aika kovia. 312 00:29:17.640 --> 00:29:24.760 Ja voitaisiin ajatella, että tekoälyn käyttöönotto ei saisi 313 00:29:24.760 --> 00:29:28.320 rasittaa mitään ryhmää liikaa tai sitten ei. 314 00:29:28.320 --> 00:29:33.050 Ei pidä vaatia tekoälyn käytöltä liikaa ainakaan siten, että 315 00:29:33.050 --> 00:29:38.020 se olennaisella tavalla huonontaa mahdollisuus. 316 00:29:38.020 --> 00:29:40.160 Se elää hyvää elämää. 317 00:29:40.160 --> 00:29:46.450 Ja se ei voi olla sellaista, että hyvinvointi hyvinvointi vaarantuu. 318 00:29:46.450 --> 00:29:52.030 Ja tätä tätä pidän myöskin olennaisena asiana. 319 00:29:52.030 --> 00:29:59.050 Ehkä on tullut. Sellaisiakin kommentteja vastaan tekoälyn. 320 00:29:59.050 --> 00:30:05.850 Kieltämiseksi, jotka minusta vaarantavat sitten työergonomiaa. 321 00:30:05.850 --> 00:30:14.880 Ja tämän vuoksi on hyvä ottaa tämäkin tämäkin puoli huomioon. 322 00:30:14.880 --> 00:30:23.290 No neljäs esittämäni periaate pohjautuu osittain siihen, että yliopiston 323 00:30:23.290 --> 00:30:30.370 tehtävänä on tuottaa asiantuntijoita ja jos tekoäly tulee olemaan asiantuntijatyössä tulevaisuudessa 324 00:30:30.370 --> 00:30:39.250 keskeisessä roolissa, niin nää näkisin jopa velvollisuutena yliopistolla olevan, että se tarjoaa 325 00:30:39.250 --> 00:30:46.370 opetusta tekoälyn käyttöä varten ja sitten samalla se opettaa sitten. 326 00:30:46.370 --> 00:30:51.270 Sen eettisyyttä ja eettistä käyttöä. 327 00:30:51.270 --> 00:30:59.320 No, mikäli näin on, niin sitten osaamistavoitteisiin tulisi sitten sisällyttää tämän 328 00:30:59.320 --> 00:31:08.860 teknisen puolen opastus ja ja sen käytön oikea käyttötapa ja ja. 329 00:31:08.860 --> 00:31:14.060 Niin edespäin. 330 00:31:14.060 --> 00:31:21.300 No tässä 4 periaatetta, jotka muotoili tuolloin 2000 kaksikymmentäkolme vuoden lopussa 331 00:31:21.300 --> 00:31:30.340 silloisen tilanteen vallitessa ikään kuin periaatteeksi tekoälyn käyttöönottoa 332 00:31:30.340 --> 00:31:38.420 varten ja tätä videota tehtäessä 2000 kaksikymmentäneljä vuonna 333 00:31:38.420 --> 00:31:40.470 on. 334 00:31:40.470 --> 00:31:47.210 Toki maailma jossain määrin edennyt ja muuttunut, mutta näkisin edelleenkin 335 00:31:47.210 --> 00:31:52.730 näiden periaatteiden harkinnan ja arvioinnin olevan. 336 00:31:52.730 --> 00:31:57.480 Relevantteja. 337 00:31:57.480 --> 00:32:05.160 No miten näitä arviointeja sitten pitäisi tehdä? 338 00:32:05.160 --> 00:32:09.680 Joukko arvoja, joita esitetään. 339 00:32:09.680 --> 00:32:16.670 Tekoälyn keskeisinä arvoina ovat seuraavat ymmärrettävyys, hyödyllisyys, 340 00:32:16.670 --> 00:32:21.930 haitattomuus, autonomia ja oikeudenmukaisuus. 341 00:32:21.930 --> 00:32:25.130 Ja hyvin monissa. 342 00:32:25.130 --> 00:32:32.440 Informaatioetiikan ja tekoälyn etiikan arvojen tarkastelussa tämän tyyppisiä arvoja esiintyy 343 00:32:32.440 --> 00:32:39.650 ja nää on sellaisia keskeisiä, jotka on on kautta linjan laajasti käytössä. 344 00:32:39.650 --> 00:32:45.010 Joo ymmärrettävyyttä voidaan ajatella ensinnäkin läpinäkyvyytenä 345 00:32:45.010 --> 00:32:49.170 eli että ei ole piilotettu mitään elementtejä. 346 00:32:49.170 --> 00:32:57.630 Ne ovat selkeitä ja se mahdollistaa nyt sitten vastuullisuuden. 347 00:32:57.630 --> 00:33:01.550 Alkoimisen tai vastuullisuuden ja kun sijoittamisen, 348 00:33:01.550 --> 00:33:05.300 jolle kulle spesifiille toimijalle. 349 00:33:05.300 --> 00:33:13.520 Hyödyllisyys sen tulisi tuottaa hyvää kunnioittaa ihmisarvoa 350 00:33:13.520 --> 00:33:22.440 se arvokkuutta sen tulisi lisätä hyvinvointia ihmisille ja ympäristölle ja niihin poispäin 351 00:33:22.440 --> 00:33:26.620 ja lisäksi sen ei tule. 352 00:33:26.620 --> 00:33:32.410 Tuottaa haittaa yksittäisille ihmisille, yhteisöille tai yhteiskunnalle. 353 00:33:32.410 --> 00:33:41.870 Se tulisi olla turvallista eikä vaarantaa omaisuutta tai ihmisiä. 354 00:33:41.870 --> 00:33:43.780 Autonomia. 355 00:33:43.780 --> 00:33:47.970 On inhimillisen toiminnan kannalta aika keskeinen filosofisen 356 00:33:47.970 --> 00:33:51.230 ihmistutkimuksen näkökulmasta ainakin. 357 00:33:51.230 --> 00:33:57.660 Eli ajatus on siitä, että ihmistä tulee pitää. 358 00:33:57.660 --> 00:34:03.130 Ja kun viimekatisina päättäjänä oma lakiisena. 359 00:34:03.130 --> 00:34:09.960 Itseään hallitsevana oliona, jonka puolesta ei voida tehdä päätöksiä, 360 00:34:09.960 --> 00:34:18.810 jonka päätöksentekovaltaa ei voi luovuttaa. Koneelle harkitsematta. 361 00:34:18.810 --> 00:34:26.130 Ja sitten oikeudenmukaisuus reiluuden ja taso tasaarvon. 362 00:34:26.130 --> 00:34:28.110 Ahaa. 363 00:34:28.110 --> 00:34:33.330 Näkökulmat liittyvät tähän tähän oikeudenmukaisuuteen ja nyt sitten 364 00:34:33.330 --> 00:34:40.070 jos mietitään näitä tekoälyyn ohjeistuksia. 365 00:34:40.070 --> 00:34:46.390 Joita yliopistossa on muodostettu ja joita ollaan muodostamassa 366 00:34:46.390 --> 00:34:53.860 ja ehkäpä kehittämässä, niin näitä arvoja voidaan. 367 00:34:53.860 --> 00:35:00.650 Moraalin näkökulmasta tuoda tähän tarkasteluun mukaan. 368 00:35:00.650 --> 00:35:08.010 No otan nyt yksi esimerkin näistä arvoista liittyen tekoälyn 369 00:35:08.010 --> 00:35:14.370 käyttöön opiskelussa ja se on haitattomuus. 370 00:35:14.370 --> 00:35:22.370 Yliopistossa opitaan käsittelemään dataa ja joillakin aloilla se 371 00:35:22.370 --> 00:35:28.430 käsiteltävä data voi olla aika lailla arkaluonteista. 372 00:35:28.430 --> 00:35:34.020 Sosiaali ja terveysalalla. Joudutaan käyttämään. 373 00:35:34.020 --> 00:35:39.730 Melko lailla arkaluonteisia tietoja käsittelemään arkaluonteisia 374 00:35:39.730 --> 00:35:44.580 tietoja, samoin informaatioteknologiassa. 375 00:35:44.580 --> 00:35:51.410 Joudutaan tekemisiin järjestelmien kanssa, jotka käyttävät hyväksi sellaisia 376 00:35:51.410 --> 00:35:57.400 tietoja, jotka voivat olla salassa pidettäviä tai arkaluonteisia tai tai jotenkin 377 00:35:57.400 --> 00:36:04.220 muuten erityistä huolenpitoa, pitoa vaativia. 378 00:36:04.220 --> 00:36:09.540 Tietoja. Joo nyt sitten. 379 00:36:09.540 --> 00:36:12.920 Kun. Tietojärjestelmät. 380 00:36:12.920 --> 00:36:21.940 Ja niihin liittyvät tekoälyt. Erilaiset algoritmit ja. 381 00:36:21.940 --> 00:36:25.780 Tekniset menetelmät ovat sellaisia, jotka käsittelee 382 00:36:25.780 --> 00:36:32.630 yksityisyyttä, arkaluonteisia tietoja. Niin täytyisi sitten. 383 00:36:32.630 --> 00:36:39.720 Omaksua melko lailla systemaattisesti sellainen sellaisia toimintatapoja, jotka. 384 00:36:39.720 --> 00:36:42.200 Eivät sitten riskeeraa. 385 00:36:42.200 --> 00:36:48.140 Yksittäisten ihmisten tietoja ja tekoälyn käytön suhteen saattaisi jollekulle tulla 386 00:36:48.140 --> 00:36:57.000 mieleen pyrkiä käyttämään tekoälyä hyväkseen siten, että syöttää sinne kysymyksiä saadakseen 387 00:36:57.000 --> 00:37:01.260 tekoälyn tuottaman vastauksen vaikkapa kielimallin avulla. 388 00:37:01.260 --> 00:37:07.240 Ja nyt sitten jos sattuu syöttämään sinne tietoa, joka on. 389 00:37:07.240 --> 00:37:09.120 Yksityistä. 390 00:37:09.120 --> 00:37:16.340 Arkaluonteista niin tää tieto sitten välittyy siihen tekojen tekoälyä porattiin. 391 00:37:16.340 --> 00:37:22.240 Tai ainakin joihinkin apparaattieihin se välittyy ja tätä 392 00:37:22.240 --> 00:37:27.220 nyt sitten voisi pitää problemaattisen. 393 00:37:27.220 --> 00:37:31.630 No kutakin näistä mainituista arvoista. 394 00:37:31.630 --> 00:37:38.660 Kannattaa pohtia ja ehkäpä pohdinnan. 395 00:37:38.660 --> 00:37:41.020 Helpottamiseksi voisi olla hyvä. 396 00:37:41.020 --> 00:37:47.280 Sen verran sanoa että että jos ottaa vaikkapa ymmärrettävyyden arvon, niin kannattaa miettiä 397 00:37:47.280 --> 00:37:55.840 joku konkreettinen tekoälyn käyttöä opiskelussa koskeva esimerkki ja sitten katsoa 398 00:37:55.840 --> 00:38:02.000 aiemmin mainittuja intressiryhmiä, opettajat, opiskelijat, yhteiskunta, valtiohallinto 399 00:38:02.000 --> 00:38:06.740 ja niin edespäin ja ikään kuin pohtia sitä konkreettista asiaa. 400 00:38:06.740 --> 00:38:10.040 Eri intressiryhmien näkökulmasta ja sitten. 401 00:38:10.040 --> 00:38:17.970 Sieltä nähdäkseni se eteen arviointi on mahdollista löytää, että onko se 402 00:38:17.970 --> 00:38:26.820 toimintatapa tai valittu toimintatapa oikein vai väärin. 403 00:38:26.820 --> 00:38:34.890 No tieteen tavoite on viime kädessä tuottaa perusteltua evidenssiä nojaavaa informaatiota 404 00:38:34.890 --> 00:38:41.100 luotettavalla menetelmällä ja tekoälyn käytön osalta. 405 00:38:41.100 --> 00:38:46.640 Nähdäkseni on ongelmallista, mikäli ei pystytä kertomaan, että mistä informaatio 406 00:38:46.640 --> 00:38:53.460 on peräisin ja ja että mikä se lähde tarkkaan ottaen on ja kokemukseni 407 00:38:53.460 --> 00:38:56.720 mukaan on olemassa sellaisia kielimalleja. 408 00:38:56.720 --> 00:39:02.080 Joilta voi kysyä tai sinne vaan asettaa kysymyksen, että miten joku 409 00:39:02.080 --> 00:39:10.140 jokin asia on ja sitten se kertoo lähteen että mihin se nojaa tiedon 410 00:39:10.140 --> 00:39:14.960 tieto saattaa olla wikipediaan perustuva. 411 00:39:14.960 --> 00:39:22.990 Sieltä se on generoinut lauseita, jotka vastaa vastaa sitten siihen kysymyslauseen. 412 00:39:22.990 --> 00:39:26.340 Mutta aina nyt sitten ei ole selvää, että miten se data on tuotettu. 413 00:39:26.340 --> 00:39:28.690 Miten dataa on käsitelty? 414 00:39:28.690 --> 00:39:34.720 Ja mistä se on edes lähtöisin ja nyt sitten jotakin epäselviä asioita 415 00:39:34.720 --> 00:39:38.550 näyttää näihin tekoälyn käyttöihin usein liittyvän. 416 00:39:38.550 --> 00:39:43.710 Ja tässä mielessä nyt sitten tää periaate siitä, että 417 00:39:43.710 --> 00:39:50.420 tekoälyn käyttö tieteen yhteydessä. 418 00:39:50.420 --> 00:39:55.500 Tulisi olla tieteen periaatteiden mukainen ja ja nyt sitten 419 00:39:55.500 --> 00:39:59.000 tätä arviota vasten, niin jotkut tekoa. 420 00:39:59.000 --> 00:40:02.630 Käyttötavat selkeästi ovat problemaattisia. 421 00:40:02.630 --> 00:40:11.800 Jotkut muut sen sijaan ajattelisin olevan varsin varsin asiallisiakin. 422 00:40:11.800 --> 00:40:20.490 Mutta jos nyt ajatellaan tätä ajatusta siitä, että mihin se data pohjautuu? 423 00:40:20.490 --> 00:40:25.540 Niin että se on niinku tärkeä tuoda esille, niin sitten silloin seurauksia 424 00:40:25.540 --> 00:40:32.790 opiskelu käytänteisiin nähden siitä siitä hetken päästä lisää. 425 00:40:32.790 --> 00:40:41.180 Tässä välissä mainitsen nyt semmoisen seikan, joka ehkä taustoittaa tän tekoälyn. 426 00:40:41.180 --> 00:40:46.810 Potentiaalia. 427 00:40:46.810 --> 00:40:52.560 On niin, että kaikki maailman koskaan tehdyt tutkimusjulkaisut. 428 00:40:52.560 --> 00:41:00.130 Persut jos niitä lähdetään laskemaan niin niitä on useita kymmeniä miljoonia. 429 00:41:00.130 --> 00:41:04.710 Ehkäpä viidestäkymmenestä 100 miljoonaa julkaisua riippuen 430 00:41:04.710 --> 00:41:08.550 arviosta ja kasvutahti on melkoinen. 431 00:41:08.550 --> 00:41:15.270 Se kasvutahti on kiihtynyt siten, että nykyisin arvioidaan uusia tutkimusraportteja 432 00:41:15.270 --> 00:41:20.030 tai julkaisuja tulvan noin 5 miljoonaa kappaletta vuosittain. 433 00:41:20.030 --> 00:41:25.530 Ja jos ajatellaan, että tieteenaloja on suhteellisen rajallinen määrä. 434 00:41:25.530 --> 00:41:30.820 Joitain kymmeniä tai satoja riippuen laskutavasta, niin on selvää, että 435 00:41:30.820 --> 00:41:39.020 kukaan ei kykene lukemaan kaikkea oman alansa julkaisua 436 00:41:39.020 --> 00:41:43.580 tai oman oman alansa julkaisuja, ellei ajatella sitä alaa. 437 00:41:43.580 --> 00:41:48.150 Jotenkin erittäin erittäin kapeaksi. 438 00:41:48.150 --> 00:41:56.010 No tällaisten suurten datamassojen käsittelyssä, niin automaattinen tietojen käsittely on ajateltu 439 00:41:56.010 --> 00:42:03.920 jo vuosikymmeniä sitten olevan hyödyllistä ja nyt sitten nää teknologian kehityttyä tekoälymallien 440 00:42:03.920 --> 00:42:10.160 kehityttyä, niin niiden käsittely on muuttunut aika aika radikaalisti ja voisi ajatella, että 441 00:42:10.160 --> 00:42:16.730 tulevaisuudessa aivan ilman muuta tullaan käyttämään. 442 00:42:16.730 --> 00:42:21.870 Automaattista tietojenkäsittelyä suurten datamassojen. 443 00:42:21.870 --> 00:42:30.130 Läpikäymiseksi, etenkin kun tieteessä tulisi perustaa tieto aiemmin tehtyyn 444 00:42:30.130 --> 00:42:36.280 tutkimukseen ja se täytyisi olla huomioituna ja näin ollen nyt sitten ainoa 445 00:42:36.280 --> 00:42:39.370 oikeastaan kuviteltavissa oleva tapa ottaa kaikki. 446 00:42:39.370 --> 00:42:45.190 Aiempi huomioon on käyttää sitten koneita. 447 00:42:45.190 --> 00:42:50.490 Ja nyt tää tää nyt luo semmoisen sanotaanko kontekstin tälle tekoälyn 448 00:42:50.490 --> 00:42:56.150 käytölle tieteen piirissä ja sitä kautta välillisesti. 449 00:42:56.150 --> 00:43:00.650 Sitten myöskin opiskelussa voitaisiin ajatella jossain vaiheessa olevan 450 00:43:00.650 --> 00:43:05.660 välttämätöntä, että käytetään hyväksi informaatioteknologia. 451 00:43:05.660 --> 00:43:10.210 Ja ja ja sen tehokas käyttö sitten olisi eräänlainen 452 00:43:10.210 --> 00:43:18.470 velvollisuus asiantuntija osaamisessa. Hallita. 453 00:43:18.470 --> 00:43:22.950 No vitsi jos mennään sitten konkreettisempaan. 454 00:43:22.950 --> 00:43:30.490 Taso on tuosta tekoälyn käytöstä opiskelussa ja ja tää konteksti jossa tää koko 455 00:43:30.490 --> 00:43:36.580 luentovideo nyt sitten on muodostettu on siis sellainen jossa on. 456 00:43:36.580 --> 00:43:42.770 Oltu tilanteessa, jossa pohditaan, että kuinka ohjeistetaan. 457 00:43:42.770 --> 00:43:48.180 Tekoälyn käytössä ja nyt sitten esimerkkinä on viittaustekniikka. 458 00:43:48.180 --> 00:43:54.970 Kuinka viitata tekoälyn tuottamaan tekstiin ja nyt tää 459 00:43:54.970 --> 00:44:02.110 viittaustekniikka on huomioitu erilaisissa. 460 00:44:02.110 --> 00:44:12.840 Viittausjärjestelmissä ja on olemassa. Käytäntöjä tunnettujen. 461 00:44:12.840 --> 00:44:21.680 Talousjärjestelmien piirissä tässä on APA tyyli rt american college association 462 00:44:21.680 --> 00:44:31.300 style ja sitten toinen chicago style jotka mulla nyt on esimerkkinä ja nää on nyt yksinkertaisesti 463 00:44:31.300 --> 00:44:38.870 tyyli kirjastoja siitä, että miten erilaisiin lähteisiin on tapana viitata. 464 00:44:38.870 --> 00:44:46.640 Ja APA american college association tyyli on monella humanistisilla 465 00:44:46.640 --> 00:44:50.310 aloilla käytössä ja sieltä nyt sitten olen lainannut. 466 00:44:50.310 --> 00:44:57.470 Saan sen, että miten nyt sitten sääntö tässä peruslainuksessa tai viittauksesta menee. 467 00:44:57.470 --> 00:45:04.010 Siinä on ensinnäkin sääntö, jonka mukaan on se. 468 00:45:04.010 --> 00:45:09.740 Tiedon välittäjä sitten minkä tyyppinen tieto ja sitten 469 00:45:09.740 --> 00:45:17.240 päiväys milloin tää tiedonanto on annettu? Ja nyt sitten jos. 470 00:45:17.240 --> 00:45:23.600 Rinnastamme tekoälyn antaman tiedon henkilökohtaiseen tiedonantoon, 471 00:45:23.600 --> 00:45:32.140 niin voitaisiin esimerkiksi viitata open ai. 472 00:45:32.140 --> 00:45:38.290 Apparaattitiin ja sitten se on henkilökohtainen tiedonanto, joka 473 00:45:38.290 --> 00:45:43.570 vastaisi vaikkapa sellaista tilannetta, jossa joku. 474 00:45:43.570 --> 00:45:50.490 Olisi henkilökohtaisesti kertonut jossakin konferenssissa toiselle ihmiselle jostakin asiasta 475 00:45:50.490 --> 00:45:57.670 ja ja joskushan joskus tieteellisessä kirjallisuudessa näkyy tällaisia henkilökohtaisia tiedonantoja 476 00:45:57.670 --> 00:46:04.270 ja nyt sitten tää tekoälyn käyttö rinnastuuisi henkilökohtaisen tiedonantoon ja sitten on kerrottu, 477 00:46:04.270 --> 00:46:10.590 että milloin, milloin se on annettu ja esimerkki windows to explain sai colleges mangekuus of 478 00:46:10.590 --> 00:46:20.060 touch open chat GPT response cloud ja. Niin edespäin. 479 00:46:20.060 --> 00:46:27.300 No chicago tyyli on tyyli jossa perusidea on. 480 00:46:27.300 --> 00:46:32.110 Tekstin tuottaja. 481 00:46:32.110 --> 00:46:40.950 Kirjoittaja ja sitten päivämäärä ja sitten chicago tyyli. 482 00:46:40.950 --> 00:46:46.250 Kirjasto kertoo, että henkilökohtaiset tiedonannot. 483 00:46:46.250 --> 00:46:51.370 Ilmaistaan tekstin sisäisellä viitteellä, mutta siitä ei ole sitten erikseen 484 00:46:51.370 --> 00:46:59.070 erikseen sitten lähdeluettelossa viitettä ja se sääntö on tiedonantajan nimi 485 00:46:59.070 --> 00:47:06.630 ja sitten media mitä kautta sitä tietoa annettu ja sitten päivämäärä ja esimerkki 486 00:47:06.630 --> 00:47:13.370 on sitten open AI chat GPT response from from other ja sitten helmikuun kaksikymmentäkaksi 487 00:47:13.370 --> 00:47:16.780 kaksikymmentäkolme vuonna. 488 00:47:16.780 --> 00:47:22.690 Ja esimerkki nyt sitten laitoin. Chat GPT 3. 489 00:47:22.690 --> 00:47:30.010 5 kysymyksen tiivistä 3 lauseeseen keskeisimmät tekoälyn eettistä 490 00:47:30.010 --> 00:47:33.740 käyttöä koskevat periaatteet ja sitten laite. 491 00:47:33.740 --> 00:47:35.730 Tässä on lainaus, jonka chat CPT 3. 492 00:47:35.730 --> 00:47:41.310 5 antoi tekoälyn eettiset periaatteet ja niin edespäin 493 00:47:41.310 --> 00:47:45.710 ja sitten se viite täällä alla chat GPT 3. 494 00:47:45.710 --> 00:47:53.230 5 henkilökohtainen tiedonanto kolmastoista kahdettatoista 2000 kaksikymmentäkolme ja. 495 00:47:53.230 --> 00:47:58.580 Toinen esimerkki. Sitten vastaavan tyyppinen. 496 00:47:58.580 --> 00:48:04.970 Eli perusidea olisi niinku että tässä periaatteiden. 497 00:48:04.970 --> 00:48:11.290 Muodostamisessa ja jota tässä tekoälyn käytössä koskien opiskelua esitin, 498 00:48:11.290 --> 00:48:17.140 että olisi mietittynä, että mihin tieteellisiin periaatteisiin käytänteisiin 499 00:48:17.140 --> 00:48:21.870 ollaan ollaan sitouduttu ja sitten. 500 00:48:21.870 --> 00:48:26.980 Tässä on konkreettisesti annettu esimerkkejä siitä, että kuinka voitaisiin nyt 501 00:48:26.980 --> 00:48:35.670 sitten siteerata tai viitata tekoälyn antamaa antamaan tekstiin. 502 00:48:35.670 --> 00:48:40.510 Ja onko tää nyt hyvä vai ei siitä sitä en. 503 00:48:40.510 --> 00:48:44.670 En ota siis kantaa tähän asiaan, mutta että tässä olisi niinku konkreettinen 504 00:48:44.670 --> 00:48:51.080 esimerkki siihen, että mikäli hyväksymme tekoälyn käytön jossakin yhteydessä, 505 00:48:51.080 --> 00:48:56.770 niin sitten siihen viitataan se mainitulla tavalla. 506 00:48:56.770 --> 00:49:03.250 On myöskin huomattava semmoinen seikka, että että tekoälyn 507 00:49:03.250 --> 00:49:09.690 käyttötapoja on äärimmäisen monta. Eli. 508 00:49:09.690 --> 00:49:14.710 Ei ole välttämättä niin, että tekoälyä käytettäisiin tiedon 509 00:49:14.710 --> 00:49:18.890 lähteenä pelkästään vaan jossakin yhteydessä. 510 00:49:18.890 --> 00:49:26.820 Tekoälyä saatettaisiin käyttää tutkimuksen kohteena eli ja tällöin sitten tutkija saattaisi 511 00:49:26.820 --> 00:49:33.890 olla kiinnostunut siitä, että miten hyvin vaikkapa kielitieteen näkökulmasta tekoäly kykenee 512 00:49:33.890 --> 00:49:39.810 tuottamaan jotakin kieltä ja tällöin sitten tutkiakseen tätä asiaa. 513 00:49:39.810 --> 00:49:42.140 Hän voi sitten pyytää tekoälyä. 514 00:49:42.140 --> 00:49:50.290 Kirjoittamaan jotakin ja sitten hän tutkii sitä aineistoa käyttäen omia omia menetelmiään 515 00:49:50.290 --> 00:49:59.600 ja se ei ole sama asia kuin teoreettinen lähde ja ja sen muotoilu. 516 00:49:59.600 --> 00:50:06.920 No en tästä asiasta enempää sano tässä tässä yhteydessä. 517 00:50:06.920 --> 00:50:12.900 No tän videon lopuksi nostin esille tekoälyn ja etiikka opintojaksossa 518 00:50:12.900 --> 00:50:16.890 mainitut asiasanat, turvallisuus snäpin. 519 00:50:16.890 --> 00:50:22.680 Yksityisiä oikeudenmukaisuus ja tarkoitus tarkoitus siis 520 00:50:22.680 --> 00:50:28.330 on nyt nopeasti viitata vaan siihen että. Kun. 521 00:50:28.330 --> 00:50:35.630 Esimerkkitapaus liittyy eettisten periaatteiden muodostamiseen ja niiden arviointiin, niin voidaan 522 00:50:35.630 --> 00:50:42.430 esittää täältä arviointia koskevia kysymyksiä näiden käsitteiden avulla. 523 00:50:42.430 --> 00:50:49.140 Esimerkiksi, onko. Näiden periaatteiden muodostamisessa. 524 00:50:49.140 --> 00:50:54.640 Tarkasteltu turvallisuutta tai onko niissä huomioitu turvallisuus 525 00:50:54.640 --> 00:51:01.800 ja ajattelisin että tää turvallisuuskysymys olisi relevantti erityisesti 526 00:51:01.800 --> 00:51:05.340 pitkän aikavälin seurausten näkökulmasta. 527 00:51:05.340 --> 00:51:13.900 Eli jos ajatellaan tekoälyn käytön oppimista ja tekoälyn käyttöä opintosuoritusten 528 00:51:13.900 --> 00:51:19.670 tekemisessä, niin pitkällä tähtäimellä on niin, että. 529 00:51:19.670 --> 00:51:22.570 Aa opiskelijat. 530 00:51:22.570 --> 00:51:32.420 Osaavat hyvin ja tehokkaasti asianmukaisesti käyttää asiantuntijatyössä tekoälyä. 531 00:51:32.420 --> 00:51:36.850 Olisi hyvä arvio tai hyvä seuraus. 532 00:51:36.850 --> 00:51:43.960 Huono seuraus voisi olla sellainen, että jos tekoäly käyttäisi. 533 00:51:43.960 --> 00:51:48.800 Opiskelun ja oppimisen korvaamiseksi ikään kuin suoritusten 534 00:51:48.800 --> 00:51:51.170 saamiseksi vilpillisin keinoin. 535 00:51:51.170 --> 00:52:00.540 Tällöin sitten asiantuntija paletissa olisi mahdollisesti vakava vakava puute. 536 00:52:00.540 --> 00:52:09.180 Ja nää tulisi sitten ehkä esillevasta pitkän tähtäimen pitkän aikavälin kautta läpinäkyvyys 537 00:52:09.180 --> 00:52:17.620 arvona olisi sellainen, että että kun opitaan uusia asioita 538 00:52:17.620 --> 00:52:21.130 ja tuotetaan. 539 00:52:21.130 --> 00:52:28.370 Suorituksia, niin tehty data ja sen käsittelytapa tuli siellä läpinäkyvää ja edellä 540 00:52:28.370 --> 00:52:35.450 mainittu esimerkki siitä, että kerrotaan käytetty lähde ja käytetty. 541 00:52:35.450 --> 00:52:43.550 No lähtien käyttötapa on ilmaistu, niin silloin oltaisiin läpinäkyvyyden periaatetta noudatettu 542 00:52:43.550 --> 00:52:50.610 ja nää periaatteet olisi siinä mielessä sitten tän läpinäkyvyysarvon mukaisia. 543 00:52:50.610 --> 00:52:56.070 No aiemmin mainitsin tästä yksityisyysasiasta, että opiskelun aikana saattaa tulla 544 00:52:56.070 --> 00:53:01.320 vastaan arkaluonteista dataa ja joka tapauksessa tulisi olla taito. 545 00:53:01.320 --> 00:53:06.770 Käsitellä asianmukaisesti arkaluonteista dataa ja ymmärtää, että minkälainen 546 00:53:06.770 --> 00:53:10.870 riski datan syöttämisestä johonkin järjestelmään saattaisi. 547 00:53:10.870 --> 00:53:14.540 Saattaisi olla. 548 00:53:14.540 --> 00:53:21.220 Ja lopuksi oikeudenmukaisuus näkökulma, josta ei ole vielä tällä videolla 549 00:53:21.220 --> 00:53:27.040 tullut esille mitään tarkempaa, niin voisi ajatella, että ne periaatteet 550 00:53:27.040 --> 00:53:31.840 eivät ole vielä muotoiltu riittävän tarkasti. 551 00:53:31.840 --> 00:53:36.450 Jotta sitten tällaiset kysymykset siitä, että että miten se opiskelijan 552 00:53:36.450 --> 00:53:43.580 esittämä tuotos arvioidaan ja nähdäkseni voisi olla tämmöinen potentiaalinen 553 00:53:43.580 --> 00:53:46.470 ongelma tekoälyn käytössä opiskelussa. 554 00:53:46.470 --> 00:53:54.450 Jos jotkut opiskelijat ja tuottaisivat suorituksen käyttäen tekoälyä 555 00:53:54.450 --> 00:54:02.500 ja jotkut eivät ja ja tuota arviointi sitten ei huomioisi asianmukaisesti 556 00:54:02.500 --> 00:54:08.370 sitä, että miten sitä on käytetty. 557 00:54:08.370 --> 00:54:16.870 No näin ollen nyt sitten jos ajatellaan sitä eettistä arviointia ja arviointiprosessia, 558 00:54:16.870 --> 00:54:23.820 niin olisi käyty läpi jossain määrin sitä, että mitä ne mitä ne käsitteet ovat. 559 00:54:23.820 --> 00:54:29.810 Mikä se ratkaisu jonkun veitsen kysymyksen suhteen on ja sitten arvioidaan 560 00:54:29.810 --> 00:54:36.790 annettua ratkaisuja, niin voisi ajatella, että vielä ollaan. 561 00:54:36.790 --> 00:54:43.630 Tilanteessa, jossa ei ole täsmällisesti ja tarkasti määritettyjä toimintatapoja 562 00:54:43.630 --> 00:54:47.810 tekoälyn käytölle, mitä tulee sen sen eettiseen puoleen. 563 00:54:47.810 --> 00:54:53.490 Ja näin ollen vielä oli sitten tekemistä tässä kokonaisuudessa ja lopputulema 564 00:54:53.490 --> 00:54:59.930 siis olisi että että jotakin ehkä on jo sanottävissä siitä, että miten sitä 565 00:54:59.930 --> 00:55:05.050 käyttöä tulisi ohjata, mutta vielä vielä ollaan. 566 00:55:05.050 --> 00:55:11.310 Ehkäpä alkutekijöissään. Tämän kokonaisuuden kanssa. 567 00:55:11.310 --> 00:55:18.270 Ja päätän nyt tämän videon tähän ja ja jatkan sitten vielä yksi videolla 568 00:55:18.270 --> 00:55:24.750 tämän kurssin puitteissa ja se kohdistuu sitten aihepiiriin. Ammattietiikka.