четверг, 1 января 2026 г.

Resume: Штучний інтелект та вища освіта у 2025 році

 У статті «Штучний інтелект і вища освіта у 2025 році» Браян Александр оглядає події року та їхні наслідки для коледжів і університетів. Він позиціонує свій матеріал як «сканування середовища», ґрунтуючись на відвідинах кампусів, розмовах з академіками, викладанні, читанні публікацій і проведенні форумів з майбутніх трендів. Огляд зосереджено на вищій освіті (K–12 опущено) і розділено на зовнішні чинники (продукти, політика, дії індустрії) та дії всередині академії (відповіді установ, педагогіка, дослідження та дебати), з завершальними рефлексіями та прогнозами.

За межами академії у 2025 році великі технологічні компанії й постачальники послуг розширили освітні AI‑пропозиції. Google, OpenAI та Anthropic запровадили режими для навчання; Google представив «AI Co‑scientist» і інтегрував AI‑інтерфейс у Google Scholar. З’явилися комерційні продукти для викладання й оцінювання (наприклад, Socrait, Gradescope), а постачальники LMS, сервіси на кшталт Grammarly, Canva і Adobe додали або розширили AI‑функції. Також продовжують використовуватися попередні застосунки, наприклад Elicit. Міжнародні організації й уряди теж підтримували ініціативи з AI‑навичок (наприклад, ITU оголосила коаліцію з AI‑навичок), а деякі субнаціональні органи заохочували вищі навчальні заклади до роботи з AI.

У самих закладах реакція була нерівномірною і часто повільною. За три роки після появи ChatGPT 3.0 лише близько чверті кампусів ухвалили інституційні політики щодо AI (звіт CHLOE); більшість таких політик є поверхневими й фактично додають пункт «не шахраюйте з AI» до правил академічної доброчесності. Декілька університетів (наприклад, Мічиган, Арізона Стейт, Огайо Стейт) розробили стратегії на вищому рівні, але в багатьох місцях рішення делеговано кафедрам і окремим викладачам без необхідних ресурсів; часто саме штатні або позаштатні викладачі опинилися на передовій впровадження AI. Структури керування та підтримки AI різняться: у деяких установах є одна неофінансована комісія, в інших — кілька бюджетованих груп; бібліотекарі, центри викладання й навчання та IT‑відділи відіграють різні ролі.

Фінансування AI‑ініціатив у вишах залишається проблемним. Є поодинокі приклади зовнішньої підтримки: Боудайнівський Hastings Initiative for AI and Humanity стартував із благодійного внеску $50 млн; система Каліфорнійських державних університетів уклала угоду з OpenAI про доступ до ChatGPT; NSF і Департамент освіти надають гранти на AI‑дослідження; деякі фонди також мають AI‑програми.

Найпомітніша практична проблема — прискорення шахрайства за допомогою AI. Висвітлені випадки включають відрахування докторанта за використання AI на іспиті, судові суперечки, де частина матеріалів була згенерована AI, і повернення традиційних вступних іспитів у деяких установах, щоб протидіяти шахрайству. Технології виявлення є, але вони ненадійні; багато викладачів повертаються до класичних, часто не масштабованих методів запобігання шахрайству (усні іспити, паперові зошити, заборона пристроїв). Александр стверджує, що це неприпустиме тимчасове рішення і закликає до перегляду всієї системи оцінювання.

Поряд із проблемою доброчесності трапляються педагогічні й дослідницькі експерименти: студенти використовують AI для генерації текстів, які потім аналізують і критикують; викладають практичні AI‑навички; з’являються курси та проєкти (Наприклад, Emerging Media Lab в Emerson College; мережі коледжів для спільних курсів; розширення AI-програм у китайських університетах). Тривають наукові дослідження над самими AI, від генетичних інструментів до вивчення якості цитування. Водночас застосування відкритих LLM у академії здається обмеженим або малопомітним.

Опір AI у науковій спільноті суттєвий. Критики звинувачують AI у відтворенні упереджень, порушенні авторського права, концентрації влади в руках великих корпорацій, колоніальних практиках і великих енергетичних витратах. Є публічні кампанії, статті та гіди з відмови від GenAI у викладанні письма, а також публічні протести та гостра критика. Такий опір може політизуватися й призвести до інституційної напруженості.

Александр також описує свій власний досвід: він сам написав текст, але звертався до ChatGPT, Gemini, Midjourney (для зображень), NotebookLM і Better Images of AI за відгуками, ідеями та ілюстраціями, використовуючи AI як дослідницького помічника, а не автора.

Прогнозуючи 2026 рік, автор підкреслює, що багато залежить від загальних технологічних і політичних трендів: подальший розвиток продуктів великих компаній, державні політики, ринкові корекції, громадська думка та економічні зміни. Він очікує подальшої взаємодії академії з AI: продовження педагогічних експериментів, досліджень, формування політик і незавершених проблем шахрайства. Можливе ширше використання відкритих моделей, а також посилення ролі громадських коледжів у підготовці до локальних потреб ринку праці. Александр попереджає про ризик погіршення репутації вищої освіти, якщо вона здаватиметься відсталою або нездатною вирішити ключові проблеми, але також визнає шанс, що академія може виглядати надійніше на тлі недоліків AI. Він закликає до систематичних досліджень використання AI на кампусах і завершенням запрошує читачів поділитися власними спостереженнями.

https://aiandacademia.substack.com/p/ai-and-higher-education-in-2025