Rozmowy z dziećmi o sztucznej inteligencji: prosty i pomocny przewodnik
Niedawno miałem ekscytującą okazję wziąć udział w programie o nazwie Skype a Naukowiec, która łączy naukowców z różnych dziedzin (biologów, botaników, inżynierów, informatyków itp.) z klasami dla dzieci, aby porozmawiać o naszej pracy i odpowiedzieć na ich pytania. Jestem bardzo zaznajomiony z dyskusjami na temat sztucznej inteligencji i uczenia maszynowego z dorosłymi, ale to pierwszy raz, kiedy naprawdę usiadłem i zastanowiłem się, jak rozmawiać z dziećmi na ten temat, i było to ciekawe wyzwanie. Dzisiaj podzielę się kilkoma pomysłami, które przyszły mi do głowy w trakcie tego procesu i mogą być pomocne dla tych z Was, którzy mają dzieci w swoim życiu w taki czy inny sposób. Pomysły te oferują cenne spostrzeżenia na temat tego, jak uprościć złożone koncepcje sztucznej inteligencji dla dzieci w angażujący i zrozumiały sposób.

Przygotuj się do wyjaśnienia koncepcji
Przygotowując się do wystąpienia przed publicznością, kieruję się kilkoma podstawowymi zasadami. Muszę jasno określić, jakie informacje zamierzam przedstawić i jakie nowe koncepcje powinna poznać publiczność po wystąpieniu, ponieważ to determinuje wszystkie informacje, którymi się podzielę. Chcę również prezentować materiał na poziomie złożoności odpowiednim do posiadanej już przez publiczność wiedzy – nie upraszczając go nadmiernie, ale też nie wykraczając poza jej poziom zrozumienia.
W życiu codziennym niekoniecznie jestem w pełni świadomy tego, co dzieci już wiedzą (lub myślą, że wiedzą) na temat sztucznej inteligencji (AI). Chcę dostosować swoje wyjaśnienia do poziomu odbiorców, ale w tym przypadku mam dość ograniczony wgląd w ich wiedzę. W niektórych przypadkach byłem zaskoczony, odkrywając, że dzieci były dość dobrze zaznajomione z takimi zagadnieniami, jak konkurencja w dziedzinie AI między firmami i na arenie międzynarodowej. Przydatnym ćwiczeniem przy podejmowaniu decyzji o sposobie formułowania treści jest wymyślanie metafor wykorzystujących koncepcje lub techniki, które odbiorcy już dobrze znają. Myślenie o tym daje również punkt dostępu do kontekstu odbiorców. Dodatkowo, bądź przygotowany na zmianę i dostosowanie swojej prezentacji, jeśli uznasz, że nie trafiasz w odpowiedni poziom. Lubię na początku zapytać dzieci o to, co myślą o AI i co wiedzą, abym mógł zacząć zyskiwać tę jasność, zanim zajdę za daleko.
Zrozumienie technologii: podstawy modeli sztucznej inteligencji
Szczególnie w przypadku dzieci, w swoich prezentacjach skupiam się na kilku kluczowych kwestiach. Czytelnicy wiedzą, że jestem zdecydowanym zwolennikiem nauczania osób niebędących ekspertami, jak trenować duże modele językowe (LLM) i inne modele sztucznej inteligencji, a także na jakich danych są one trenowane. Jest to kluczowe dla kształtowania realistycznych oczekiwań co do wyników tych modeli. Wierzę, że każdy, w tym dzieci, łatwo ulega urokowi ucieleśnionej natury tonu, głosu, a nawet „osobowości” LLM, tracąc z oczu realne ograniczenia tych narzędzi.
Wyzwaniem jest dostosowanie treści do wieku, ale gdy już wyjaśnisz, jak działa szkolenie – jak modele LLM uczą się na przykładach materiałów pisanych lub jak model dyfuzyjny uczy się na podstawie par tekst-obraz – uczniowie będą mogli wyciągnąć własne wnioski na temat potencjalnych rezultatów. Ponieważ agenci AI stają się coraz bardziej złożeni, a mechanizmy leżące u ich podstaw coraz trudniejsze do wyizolowania, ważne jest, aby użytkownicy rozumieli elementy składowe, które prowadzą do tej zdolności.
Zaczynam od wyjaśnienia szkolenia jako ogólnej koncepcji, unikając jak największej ilości technicznego żargonu. Rozmawiając z dziećmi, ucieleśniony język może pomóc w zmniejszeniu tajemniczości. Na przykład: „Przekazujemy komputerom wiele informacji i prosimy je o nauczenie się wzorców w nich zawartych”. Następnie opiszę przykłady wzorców, takich jak te występujące w języku lub pikselach na obrazie, ponieważ samo słowo „wzorce” jest zbyt ogólne i szerokie. Następnie: „Te wzorce, których się uczysz, są zapisane za pomocą matematyki, a ta matematyka jest tym, co znajduje się wewnątrz „modelu”. Teraz, gdy przekazujemy modelowi nowe informacje, wysyła nam odpowiedź opartą na wzorcach, których się nauczył”. Następnie podaję kolejny ogólny przykład i wyjaśniam uproszczony proces szkolenia (zazwyczaj model szeregów czasowych, ponieważ jest tak łatwy do wizualizacji). Następnie omówię bardziej szczegółowo różne typy modeli, wyjaśniając różnicę między sieciami neuronowymi a modelami językowymi, w zakresie odpowiednim dla odbiorców.
Etyka sztucznej inteligencji i wpływy zewnętrzne
Chciałbym również poruszyć kwestie etyczne związane ze sztuczną inteligencją. Wierzę, że dzieci w wieku szkolnym (podstawowym, gimnazjalnym i wyższym) są w pełni zdolne do zrozumienia… Wpływ na środowisko oraz wpływ społeczny, jaki mogą mieć technologie sztucznej inteligencji, w tym duże modele językowe (LLM). Wydaje mi się, że wiele dzieci ma dziś dość zaawansowany poziom zrozumienia globalnych zmian klimatu i kryzysu środowiskowego, więc mówienie o ilości energii, wody i rzadkich minerałów potrzebnych do zasilania LLM nie jest bezsensowne. Ważne jest tylko, aby wyjaśnienia były zrozumiałe i dostosowane do wieku. Jak wspomniałem wcześniej, używaj przykładów, które są trafne i nawiązują do doświadczeń odbiorców. Powinniśmy skupić się na Etyka sztucznej inteligencji و Wpływ sztucznej inteligencji O społeczeństwie i środowisku.
Oto przykład przejścia od doświadczeń dziecka do wpływu sztucznej inteligencji na środowisko.
„Czy nie macie Chromebooków do nauki? Czy zauważyliście kiedyś, że tył laptopa nagrzewa się, gdy siedzicie na kolanach i długo pracujecie? Może gdy macie otwartych wiele plików naraz lub oglądacie dużo filmów? To samo dzieje się na dużych komputerach zwanych serwerami, które działają podczas trenowania lub używania dużego modelu językowego (LLM), na przykład gdy odwiedzacie stronę chatGPT”.
„Centra danych, w których działa chatGPT, są pełne serwerów działających jednocześnie i wszystkie bardzo się nagrzewają, co nie jest korzystne dla sprzętu. Dlatego te centra danych czasami wykorzystują zimną wodę z dodatkiem chemikaliów, która jest pompowana rurami biegnącymi bezpośrednio nad wszystkimi serwerami. Pomaga to schłodzić maszyny i utrzymać je w działaniu. Oznacza to jednak, że zużywana jest duża ilość wody, zmieszanej z chemikaliami i podgrzewanej podczas przepływu przez te systemy. Może to oznaczać, że woda ta nie jest dostępna dla ludzi do innych celów, takich jak rolnictwo czy woda pitna”.
„Czasami te centra danych korzystają z dużych klimatyzatorów, które zużywają dużo energii elektrycznej, co oznacza, że może jej zabraknąć w naszych domach lub firmach. Energia elektryczna jest również czasami wytwarzana poprzez spalanie węgla w elektrowniach, co powoduje emisję spalin do powietrza i zwiększa zanieczyszczenie”.
Dzięki temu doświadczenia dziecka stają się częścią rozmowy i dają mu namacalny sposób nawiązania kontaktu z tematem. Można prowadzić podobne dyskusje na temat etyki praw autorskich i kradzieży treści, angażując artystów i twórców znanych dzieciom, bez konieczności zagłębiania się w szczegóły prawa własności intelektualnej. Deepfake'i, zarówno o charakterze seksualnym, jak i innym, to z pewnością temat, z którym wiele dzieci jest zaznajomionych, i ważne jest, aby dzieci były świadome ryzyka, jakie stanowią one dla jednostek i społeczeństwa, korzystając ze sztucznej inteligencji.
To może być przerażające, zwłaszcza dla małych dzieci, kiedy zaczynają rozumieć niektóre z nieetycznych zastosowań sztucznej inteligencji lub globalne wyzwania, jakie ona stwarza, i uświadamiają sobie, jak potężne są niektóre z tych rzeczy. Na przykład, dzieci pytały mnie: „Jak możemy to naprawić, jeśli ktoś uczy sztuczną inteligencję robienia złych rzeczy?”. Chciałbym znać lepsze odpowiedzi na to pytanie, bo w zasadzie musiałem odpowiedzieć: „Sztuczna inteligencja czasami dysponuje informacjami, które pozwalają jej robić złe rzeczy, ale jest też wiele osób, które ciężko pracują, aby uczynić ją bezpieczniejszą i uniemożliwić jej udostępnianie złych informacji lub instrukcji dotyczących robienia złych rzeczy”.
Dekonstrukcja pojęcia „prawdy”
Humanizacja sztucznej inteligencji stanowi realny problem zarówno dla dorosłych, jak i dla dzieci – mamy tendencję do ufania przyjaznemu, pewnemu głosowi, gdy coś nam mówi. W dużej mierze problem polega na tym, że głos LLM (ang. Large Language Model) przekazujący nam informacje jest często przyjazny, pewny siebie i błędny. Koncepcja edukacji medialnej od lat stanowi ważny temat w pedagogice iRozszerzenie go na duże modele językowe (LLM) jest naturalną konsekwencją ewolucji.Tak jak uczniowie (i dorośli) muszą nauczyć się krytycznego podejścia do informacji tworzonych przez innych ludzi lub firmy, tak my musimy być krytycznymi i rozważnymi odbiorcami treści generowanych komputerowo. Obejmuje to zrozumienie ograniczeń tych technologii.
Myślę, że jest to również zgodne z rozumieniem technologii. Kiedy wyjaśniam, że zadaniem dużego modelu języka (LLM) jest nauka i kopiowanie języka ludzkiego, na najbardziej podstawowym poziomie poprzez określanie kolejnego możliwego słowa w ciągu na podstawie tego, co było poprzednie, ma sens, gdy mówię, że LLM nie jest w stanie pojąć pojęcia „prawdy”. Prawda nie jest częścią procesu szkolenia, a jednocześnie jest pojęciem naprawdę trudnym do zrozumienia nawet dla ludzi. LLM może w większości przypadków poprawnie interpretować fakty, ale od czasu do czasu, na mocy prawdopodobieństwa, pojawią się niejasności i potencjalne błędy. W rezultacie dzieci korzystające z tego narzędzia muszą być w pełni świadome jego zawodności.
Jednak ta lekcja ma wartość wykraczającą poza samo wykorzystanie sztucznej inteligencji, ponieważ uczymy radzenia sobie z niepewnością, niejednoznacznością i błędami. Jak zauważył, Berman i Ajawi (2023)„Rodzicielstwo w świecie zapośredniczonym przez sztuczną inteligencję wymaga nauki radzenia sobie z niejasnymi, stronniczymi i niejednoznacznymi sytuacjami, które odzwierciedlają skomplikowane relacje między ludźmi a technologiami”. Bardzo podoba mi się to ujęcie, ponieważ nawiązuje do czegoś, o czym często myślę – że duże modele językowe (LLM) są tworzone przez ludzi i odzwierciedlają interpretacje treści generowanych przez ludzi. Kiedy dzieci uczą się, jak powstają modele, że są omylne i że ich wyniki wynikają z danych generowanych przez ludzi, dostrzegają niejasną naturę funkcjonowania technologii w dzisiejszym, szerszym społeczeństwie. (Właściwie gorąco polecam cały artykuł każdemu, kto zastanawia się, jak uczyć dzieci o sztucznej inteligencji).
Uwaga na temat zdjęć i filmów
Jak wspomniałem wcześniej, rozprzestrzenianie się treści wideo i obrazów „generowanych przez sztuczną inteligencję”, czyli „sztucznej inteligencji”, rodzi wiele trudnych pytań. Uważam, że dostarczanie dzieciom informacji w tym obszarze jest kluczowe, ponieważ łatwo jest im przyswoić dezinformację lub jawne kłamstwa poprzez przekonujące treści wizualne. Treści te są również o krok od faktycznego procesu tworzenia dla większości dzieci, ponieważ wiele z nich jest szeroko udostępnianych w mediach społecznościowych i prawdopodobnie nie będzie odpowiednio oznaczonych. Rozmowa z dziećmi o etykietach, które pomagają identyfikować materiały generowane przez sztuczną inteligencję, może być pomocna, oprócz ogólnych umiejętności krytycznej edukacji medialnej, takich jak „jeśli coś brzmi zbyt pięknie, aby było prawdziwe, prawdopodobnie jest fałszywe” i „sprawdzaj dokładnie to, co słyszysz w tego typu postach”. Nauczenie dzieci, jak weryfikować fakty i źródła informacji, jest kluczowe, aby wzmocnić ich umiejętność odróżniania prawdziwych treści od fałszywych.
oszukiwanie z wykorzystaniem sztucznej inteligencji
Pomimo wszystkich kwestii etycznych i ryzyka związanego z błędami na studiach magisterskich (LLM), narzędzia AI są niezwykle przydatne i angażujące, więc zrozumiałe jest, że niektórzy studenci mogą uciekać się do ich używania, aby ściągać podczas prac domowych i w szkole. Powiedziałbym, że wystarczy z nimi porozmawiać i wyjaśnić, że celem jest nabycie umiejętności potrzebnych do wykonania zadań, a jeśli tego nie zrobią, stracą umiejętności, które będą im potrzebne w późniejszych klasach i w późniejszym życiu… Ale wszyscy wiemy, że dzieci rzadko kiedy są aż tak logiczne. Ich mózgi wciąż się rozwijają, a takie rzeczy są czasami trudne do rozważenia nawet dla dorosłych. Zrozumienie wpływu AI na edukację wymaga dogłębnego zrozumienia możliwości tych narzędzi i ich potencjalnego wpływu na rozwój podstawowych umiejętności.
Zasadniczo można zastosować dwa podejścia: znaleźć sposoby na utrudnienie lub uniemożliwienie ściągania w pracy szkolnej albo zintegrować sztuczną inteligencję z klasą, zakładając, że uczniowie będą mieli do niej dostęp w przyszłości. Praca pod nadzorem w klasie może dać uczniom możliwość nabycia niektórych potrzebnych im umiejętności bez ingerencji cyfrowej. Jednak, jak wspomniałem wcześniej, wiedza o korzystaniu z mediów musi teraz rzeczywiście obejmować rozbudowane modele językowe i uważam, że nadzorowane korzystanie z rozbudowanych modeli językowych przez kompetentnego nauczyciela może mieć ogromną wartość pedagogiczną. Co więcej, naprawdę nie da się „uczynić pracy szkolnej odpornej na sztuczną inteligencję” wykonywanej poza bezpośrednim nadzorem nauczyciela i powinniśmy być tego świadomi. Nie chcę jednak, żeby to brzmiało łatwo – patrz niżej w sekcji Dodatkowe lektury W licznych artykułach naukowych na temat szeroko pojętych wyzwań związanych z nauczaniem umiejętności posługiwania się sztuczną inteligencją w klasie, nauczyciele stoją przed trudnym zadaniem nie tylko nadążania za technologią i dostosowywania metod nauczania do aktualnych czasów, ale także dostarczania uczniom informacji niezbędnych do odpowiedzialnego korzystania ze sztucznej inteligencji. Nauczyciele muszą również skupić się na nauczaniu uczniów krytycznej oceny informacji generowanych przez sztuczną inteligencję i rozwijaniu u nich umiejętności krytycznego myślenia.
Uczenie się na przykładzie edukacji seksualnej: lekcje sztucznej inteligencji
Ostatecznie pytanie brzmi, co dokładnie powinniśmy doradzać dzieciom, a czego powinny unikać w świecie sztucznej inteligencji, zarówno w szkole, jak i poza nią. Rzadko jestem zwolennikiem zakazywania lub blokowania idei i uważam, że przykład kompleksowej, opartej na dowodach naukowych, dostosowanej do wieku edukacji seksualnej stanowi dobrą lekcję. Jeśli dzieci nie otrzymają rzetelnych informacji na temat swoich ciał i seksualności, nie będą miały wiedzy, aby podejmować świadome i odpowiedzialne decyzje w tym zakresie. Dorośli nie będą egzekwować nakazów, gdy dzieci będą podejmować trudne decyzje dotyczące tego, co robić w trudnych okolicznościach, dlatego musimy zapewnić dzieciom informacje potrzebne do odpowiedzialnego podejmowania tych decyzji. Obejmuje to wskazówki etyczne, ale także informacje oparte na faktach. Podobnie musimy zadbać o to, aby uczniowie mieli pełne zrozumienie możliwości i zagrożeń związanych ze sztuczną inteligencją, aby mogli z niej skutecznie i odpowiedzialnie korzystać w erze cyfrowej.
Modelowanie odpowiedzialności w wykorzystaniu sztucznej inteligencji
Kolejną ważną kwestią, o której warto wspomnieć, jest to, że dorośli również muszą dawać przykład odpowiedzialnego zachowania w kontaktach ze sztuczną inteligencją. Jeśli nauczyciele, rodzice i inni dorośli w życiu dzieci nie będą mieli krytycznej świadomości na temat sztucznej inteligencji, nie będą w stanie nauczyć dzieci krytycznego i rozważnego podejścia do tej technologii.
Artykuł wzbudził Artykuł w New York Times Jestem nieco rozczarowany sposobem, w jaki nauczyciele wykorzystują sztuczną inteligencję. Artykuł nie odzwierciedla głębokiego zrozumienia AI, myląc ją z podstawowymi statystykami (nauczyciel analizujący dane uczniów, aby dostosować nauczanie do ich poziomu, nie jest ani sztuczną inteligencją, ani czymś nowym, ani problematycznym), ale rozpoczyna dyskusję na temat tego, jak dorośli w życiu dzieci korzystają z narzędzi AI, i wspomina o potrzebie modelowania przez tych dorosłych transparentnego i krytycznego wykorzystania AI. (Pomija również krótko kwestię nastawionego na zysk przemysłu, który wprowadza AI do szkół, co wydaje się problemem wartym poświęcenia mu więcej uwagi – być może napiszę o tym więcej później).
Aby przeciwstawić się jednemu z twierdzeń artykułu, nie chciałbym narzekać na używanie przez nauczycieli dużych modeli językowych (LLM) przeprowadzić wstępny przegląd materiału pisemnego, pod warunkiem monitorowania i walidacji wyników. Jeśli kryteria oceny koncentrują się wokół gramatyki, ortografii i mechaniki pisania, to prawdopodobnie odpowiedni będzie duży model językowy, biorąc pod uwagę sposób jego wyszkolenia. Nie ufałbym bezkrytycznie dużemu modelowi językowemu w tej kwestii bez choćby krótkiego spojrzenia człowieka, ale tak naprawdę został on zaprojektowany do rozumienia języka ludzkiego. Pomysł, że „uczeń musiał to napisać, więc nauczyciel powinien to ocenić”, jest absurdalny, ponieważ celem ćwiczenia jest nauczenie ucznia. Nauczyciele już znają mechanikę pisania, a ten projekt nie ma na celu zmuszania ich do nauki czegoś, co można osiągnąć jedynie poprzez ręczną ocenę. Podejrzewam, że „New York Times” o tym wiedział, a sformułowanie to miało głównie na celu chwyt marketingowy, ale warto to jasno powiedzieć.
Ten punkt nawiązuje do poprzedniej sekcji poświęconej zrozumieniu technologii. Jeśli dobrze rozumiesz, jak wygląda proces szkoleniowy, możesz ocenić, czy stworzy on narzędzie zdolne do wykonania danego zadania. Automatyzacja oceniania jest jednak częścią edukacji od co najmniej dekad – wie o tym każdy, kto wypełniał arkusz ocen.
Rozwój tej technologii zmusza nasz system edukacji do pewnego stopnia adaptacji, ale nie możemy jeszcze zamknąć tego dżina z powrotem w butelce. Z pewnością istnieją pewne sposoby, w jakie sztuczna inteligencja może mieć pozytywny wpływ na edukację (często cytowanymi przykładami są personalizacja i uwolnienie czasu nauczycieli, który można następnie przeznaczyć na bezpośrednią obsługę uczniów), ale jak w większości przypadków, jestem zwolennikiem realistycznego podejścia. Myślę, że większość pedagogów doskonale zdaje sobie sprawę, że edukacja nie może być kontynuowana tak, jak przed wprowadzeniem dużych modeli językowych (LLMNasze życie.
Wniosek
Dzieci są mądrzejsze, niż nam się czasem wydaje, i wierzę, że są w stanie zrozumieć wiele z tego, co sztuczna inteligencja oznacza w naszym świecie. Radzę być transparentnym i uczciwym w kwestii realiów tej technologii, w tym zalet i wad, jakie niesie ona dla nas jako jednostek i dla całego społeczeństwa. Sposób, w jaki wykorzystujemy sztuczną inteligencję, będzie kształtował życie dzieci, zarówno pozytywne, jak i negatywne, a one będą zwracać na to uwagę. Dlatego tak ważne jest, aby starannie rozważać nasze działania, a także to, co mówimy. Musimy wyjaśnić im możliwości i wyzwania związane ze sztuczną inteligencją, kładąc nacisk na etyczne i odpowiedzialne korzystanie z tej technologii.
Możliwość dodawania komentarzy nie jest dostępna.