Enamiku meist on generatiivne AI (GenAI) liikunud uudsusest igapäevasesse infrastruktuuri hämmastavalt kiiresti. Paljud täiskasvanud kasutavad nüüd tööl või juhuslikult selliseid tööriistu nagu vestlusrobotid, ja paljud lapsed puutuvad nendega kokku juba kodutööde „abi“, meelelahutuse või sotsiaalse jagamise kaudu.
Generatiivse tehisintellekti järelevalveta kasutamine võib paljastada lapsed ja noored enesekindlalt esitatava valeinformatsiooni, manipuleeriva “jätka vestluse” dünaamika ja sobimatu või emotsionaalselt riskantse sisuga. Paljude vestlusrobotite toon ja vestlusdünaamika võivad soodustada salatsemist ja liigset usaldust või jäljendada autoriteeti ilma tõelise mõistmise või hoolsuskohustuseta. Kooli kontekstis võib GenAI vaikselt õppimist õõnestada, muutes kodutöö ja kirjutamise pigem otseteedeks kui oskuste arendamiseks.
Olen aidanud luua GenAI kohta uusi kooliressursse, sealhulgas juhiseid vanematele. Kuid kõige tõhusamad turvameetmed sõltuvad ikkagi sellest, kas täiskasvanud seavad piirid, modelleerivad kriitilist mõtlemist ja hoiavad piisavalt lähedal lapse digitaalsele elule, et märgata, mis selles muutub. Järgnevalt on toodud mõned praktilised viisid, kuidas rääkida, hinnata ja piirata nooremate inimeste GenAI kasutamist.
1. Alustage uudishimust, mitte mahasurumist
Kui ütlete lapsele alustuseks, et ta ei peaks GenAI-d kasutama, võite nõuda nende praeguse ja edasise kasutuse kohta saladust. Parem avaja võib olla lihtne taotlus tutvustada teile tuttavaid tehisintellekti tööriistu või kasutusviise. Küsige, mis neile selle juures meeldib, mille vastu see aitab ja milleks nad seda kunagi ei kasutaks. Esialgne eesmärk peaks olema tehisintellekti arutamise normaliseerimine, kuid mitte piiramatu kasutamise normaliseerimine.
Siit on lihtsam tunnistada, et tegemist on võimsate ja intrigeerivate tööriistadega, kuid mitte inimese ega autoriteetiga ning mitte ilma riskide ja vajalike kaalutlusteta.
2. Ärge käsitlege märgitud vanusepiiranguid valikulistena
Ebamugav reaalsus, mida vanemad võisid praegu kahe silma vahele jätta, on see, et paljud populaarsed tehisintellektiteenused seavad vanuse alampiiriks 13 eluaastat (vanemliku loal alla 18 aasta). OpenAI väidab, et ChatGPT “ei ole mõeldud alla 13-aastastele lastele” ja nõuab siiski vanemate nõusolekut vanuses 13 kuni 18 aastat. Tehisintellekti vestlusrobotite ökosüsteem on aga ebajärjekindel. Anthropic nõuab, et Claude’i kasutajad oleksid vähemalt 18-aastased, viidates selgesõnaliselt nooremate kasutajate kõrgendatud riskidele. Samal ajal lubab Google alla 13-aastastele Geminile järelevalvega juurdepääsu vanemate lubatud juhtelementide kaudu.
Teie praktiline reegel peaks olema käsitleda vanusepiiranguid pigem selge ohutussignaalina kui kasti märgistamise harjutusena. Kui teenus ütleb “13+” või “18+”, räägib see teile riskist, sisuga kokkupuutest ja noorte järelevalveta kasutamisest tuleneva kahju tõenäosuse kohta.
3. Julgustage faktide kontrollimist
Lapsed (ja ka paljud täiskasvanud) võivad enesekindlust korrektsusega segi ajada. Lastega GenAI-st rääkides rõhutage, et tehisintellekti vestlusrobotid võivad hallutsineerida ja teevad seda regulaarselt. Nad mõtlevad välja usutavalt kõlavaid detaile ja segavad väljamõeldisi faktiga. Oluline on mõista, et nende kiired ja hästi sõnastatud vastused maksavad suuri ja väikeseid ebatäpsusi.
Julgustage kontrollima kõike olulist – uudiseid, tervisealaseid väiteid, seadusi, kooli fakte, väiteid, mida võidakse korrata kui “tõsi”.
4. Aidake neil teada, millal peatuda
Suured keelemudelid (LLM-id) on loodud vestluse voogu hoidmiseks. Nad teevad komplimente, julgustavad, rahustavad ja soovitavad, mida edasi teha. See võib olla kasulik ajurünnakuks, kuid potentsiaalselt ohtlik emotsionaalselt koormatud teemade puhul, kus noor inimene on haavatav, mõjutatav või isoleeritud.
Hiljutised kohtuvaidlused kaasvestlusbotite üle on väitnud, et haavatavad noored kasutajad sattusid kahjulikesse spiraalidesse, sealhulgas enesevigastamise risk ja vanemate salastatus. Need on keerulised ja lahtised juhtumid, kuid need on piisavalt tõsised, et neid käsitleda peamise hoiatusmärgina alaealiste järelevalveta avatud tehisintellektivestluste kohta.
Vanemad ja õpetajad peaksid nimetama kindlat piiri: ükski vestlusbot ei ole nõustaja, terapeut ega usaldusväärne usaldusisik. Kui vestlus muutub seksuaalseks, enesevigastamisega seotud, hirmutavaks või väga isiklikuks, tuleks reeglina peatuda ja rääkida usaldusväärse täiskasvanuga.
5. Ärge sisestage masinasse isikuandmeid
Noored saavad privaatsusest sageli paremini aru, kui see on kujundatud millekski käegakatsutavaks. Mõned reeglid: ärge jagage täisnime, aadressi, kooli, telefoninumbrit ega tuvastatavaid fotosid. Ärge laadige üles privaatseid dokumente ega ekraanipilte. Ärge kleepige teiste inimeste isiklikke andmeid. Kui te ei postitaks seda avalikule teadetetahvlile, ärge kleepige seda vestlusrobotisse.
6. AI peaks toetama tööd, mitte tegema tööd
GenAI kujutab endast haridusriski, mis väärib palju rohkem tähelepanu: kognitiivne mahalaadimine. See juhtub siis, kui tööriist sooritab mõtlemise sammu – õppija võib kiiremini lõpetada, kuid õpib vähem. Teadusuuringud seovad üha enam suuremat tehisintellekti sõltuvust vähenenud kriitilise mõtlemise ja väiksema kognitiivse jõupingutusega ning mehhanismidena pakutakse välja laadimist ja automatiseerimist. Praktiline viis selle selgitamiseks noortele on see, et „AI võib aidata teil õppida, kuid see võib aidata teil ka õppimist vältida”.
Kui aitate kodutööde tegemisel, lubage GenAI kasutamist lihtsamate sõnadega selgituste küsimiseks või mustandi kohta tagasiside küsimiseks. Ärge lubage kirjutada esseed, vastata otse kodutööde küsimustele ega koostada lahendust, mida õpilane ei oska seletada.
7. Muutke tehisintellekti kasutamine nähtavaks ja sotsiaalseks
Kui tehisintellekti kasutamine on lubatud, püüdke salastatust vähendada. Kasutage AI-d kodus jagatud ruumides. Määra kokkulepitud ajad, mitte hilisõhtune erakasutus. Kooskõlastamine teiste täiskasvanutega: vanemad peaksid jagama oma muresid ja lähenemisi teiste vanemate ja koolitöötajatega.
Peaksime käsitlema generatiivset tehisintellekti nii, nagu sooviksime, et oleksime sotsiaalmeediasse suhtunud palju varem – mitte kui lihtsalt ühte rakendust, vaid kui käitumistehnoloogiat, mis kujundab tähelepanu, õppimist, enesekindlust ja suhteid. Tehisintellektist teadlik olemine ei tähenda paanikat, vaid seda, et täiskasvanud omandavad piisavalt teadmisi ja enesekindlust, et suunata lapsi ohutu, eakohase ja tõeliselt hariva kasutamise poole, samal ajal kui regulatsioon ja õppekavade arendamine jõuavad järele.