top of page

Новини тижня у ШІ: плюси Gemini 2.5 Pro, перспективи LLM та ризик підробки рецептів


Сергій Бриль, AI and Analytics Executive Leader

У регулярному дайджесті новин запрошені експерти розповідають, що у їх галузі варто уваги. Сьогодні новинами з ринку ШІ ділиться Сергій Бриль, AI and Analytics Executive Leader.

Розповідаємо, що вміє Gemini 2.5 Pro від Google, чи стануть LLM справжнім ШІ та як захиститись від ШІ-шахрайства. 




Які переваги вона має? 


Google вивів конкуренцію на ШІ-ринку на новий рівень, безкоштовно відкривши доступ до Gemini 2.5 Pro – моделі з 1 млн токенів контексту (майбутнє розширення — до 2 млн). Її архітектура включає механізм багатоетапного мислення. Це забезпечує 51.6% ефективності у тестах на людську логіку, випереджаючи аналоги. Модель демонструє найвищі показники в наукових (84% у GPQA) та кодових (63.8% у SWE-bench) задачах, а також здатність аналізувати об’ємні дані (повні романи, відео, код-бази).


Стратегія Google базується на демпінгу: безкоштовний доступ (5 запитів/хв) повинен перехопити базу користувачів інших гравців, які не мають альтернативних джерел доходів і існують за рахунок інвестицій — їм набагато важче відмовитися від монетизації. 

Незважаючи на вищі енерговитрати (2.1 kWh/запит) та латентність (4.7с), модель вже інтегрована з платформами Replit / VS Code і планує підтримку 3D-рендерингу та Google Workspace до 2025 року. Цей крок змусить конкурентів переглянути ціноутворення або функціонал (наприклад, додати можливості в платних пакетах).




Це дійсно так?


До таких результатів прийшли дослідники Association for the Advancement of Artificial Intelligence, опитавши близько 500 спеціалістів із ШІ. 


Відповідь залежить від того, як визначити Artificial General Intelligence (AGI). Якщо під AGI розуміти систему, здатну мислити, адаптуватися та вирішувати будь-які завдання так само добре або краще за людину, поточна архітектура LLM має серйозні обмеження: 


  • LLM є статистичними моделями, які працюють на основі патернів у даних. Вони не мають справжнього розуміння чи свідомості.

  • Їхня здатність вирішувати завдання обмежується якістю та обсягом тренувальних даних.

  • Відсутність довгострокового планування та причинно-наслідкового мислення робить їх непридатними для багатьох задач AGI.


Крім того, як зазначив засновник OpenAI Сем Альтман у 2024 році, визначення AGI може змінюватися залежно від контексту та очікувань суспільства. У конкурентній гонці компанії можуть називати AGI системи, які частково відповідають початковим критеріям. Це нагадує ситуацію зі штучним інтелектом — термін використовують для позначення майже всіх сучасних технологій — від статистичних методів до NLP.


Наукова спільнота вважає, що поточна архітектура LLM не є достатньою для створення справжнього AGI. Однак це не означає, що AGI неможливе в принципі. Майбутні прориви в галузях нейроморфних обчислень, когнітивної науки чи нових архітектур штучного інтелекту можуть змінити ситуацію.


Проте обговорення можливості створення AGI ще до його появи є важливим кроком. Це дає суспільству шанс підготуватися до потенційних викликів і ризиків, пов’язаних із появою такої технології.




До чого це може призвести?


Хоча технологія має потенціал для творчих і освітніх цілей, її зловживання може призвести до ризиків у сфері безпеки, фінансів і медицини.


Їх можна поділити на три групи:


1. Безпосередні загрози (короткострокові):


  • Зростання кількості фішингових атак через підроблені рахунки/рецепти.

  • Колапс ручних систем верифікації (наприклад, аптеки не встигатимуть перевіряти кожен рецепт).

  • Масові спроби отримати ліки з обмеженим доступом (наприклад, опіоїди).


2. Системні наслідки (середньострокові):


  • Знецінення цифрових документів у медицині та фінансах.

  • Виникнення «паралельних» баз даних (легальні vs ШІ-документи).

  • Зниження якості медичних послуг через хибні діагнози на основі фальсифікованих аналізів.


3. Стратегічні загрози (довгострокові):


  • Дискредитація поняття «офіційний документ».

  • Формування чорного ринку ШІ-генерованих документів.


Знизити ризики можуть:


  • Цифрові водяні знаки (наприклад, вбудовані NFT-маркери).

  • Регуляторні зміни (наприклад, обов'язкова сертифікація ШІ-генераторів документів).

  • ШІ-детектори.

  • Децентралізована верифікація.


Не здивуюсь, якщо виникне навіть страхування від ШІ-шахрайства.



Кнопка підписки на телеграм-канал High Bar Journal


© 2035 by Business Name. Made with Wix Studio™

bottom of page