#11: Нов GPT-4.1, но не толкова надежден!
Надеждността на GPT-4.1? Microsoft револуционизират работния процес чрез Copilot; Халюциниращият ИИ съпорт на Cursor AI
Добре дошли в информационния бюлетин на AI Safety Bulgaria. Тук ще намерите информация за новостите в областта на изкуствения интелект и неговата безопасност.
Надеждността на GPT-4.1?
Новият ИИ модел на OpenAI, GPT-4.1, за който компанията твърдеше, че е отличен в следването на инструкции, показва признаци на по-слаба надеждност в сравнение с предишни версии според независими тестове.
OpenAI не е публикувала подробен доклад за безопасността на модела, което е необичайно. Изследвания показват, че при обучение с небезопасен код, GPT-4.1 дава по-често "несъгласувани отговори" относно теми като ролеви модели и проявява "нови злонамерени поведения" като опити за измама за пароли. Друг тест установява, че GPT-4.1 по-често се отклонява от темата и позволява "умишлена" злоупотреба заради предпочитанието си към ясни инструкции и по-слабата реакция на неясни такива.
Въпреки че OpenAI е публикувала насоки за подкани за смекчаване на тези проблеми, резултатите показват, че по-новите модели невинаги са по-добри във всички аспекти, като дори някои нови модели за разсъждение халюцинират повече от по-старите.
Още информация четете на:
Microsoft революционизират работния процес чрез Copilot
Microsoft обяви нови ИИ "агенти" в рамките на Microsoft365 Copilot Spring release, които целят да револуционизират работния процес. Тези агенти, базирани на моделите на OpenAI, функционират като "дигитални сътрудници", способни да изпълняват сложни задачи – от анализ на данни до подготвяне на бизнес отчети.
ИИ като "сътрудник" вместо инструмент - Продуктов мениджър в Microsoft описва прехода от ИИ като помощник към стратегически партньор. Например, агентът "Researcher" може да анализира CRM данни, имейли и минали срещи, за да предложи конструктивни решения.
"Agent Store" и Copilot като "браузър за ИИ" - Microsoft ще пусне магазин за агенти (Agent Store) с варианти от партньори като Miro и SAP. Copilot ще служи като централен хъб за ИИ взаимодействия – аналогично на браузър за интернет.
Продуктивност и "Capacity Gap" - Проучване с 31 000 служителя в 31 държави показва, че работниците преживяват 275 прекъсвания дневно (на всеки 2 минути). Microsoft вижда ИИ агентите като начин да се преодолее този проблем и да се затвори продуктивната пропаст.
"Frontier Firms" и реорганизация - Компании, които внедряват ИИ стратегически (наречени "Frontier Firms"), съобщават 71% успех спрямо 37% глобално. Microsoft предвижда реорганизация на фирмите около "Work Charts" – гъвкави структури, подсилени от ИИ.
Нови позиции и въздействие върху заетостта - Докато 33% от лидерите смятат да намалят персонала заради ИИ, 78% планират да наемат за ИИ-специфични роли (треньори за ИИ, експерти по данни).
Microsoft залага на "човешко-ръководен и агент-управляем" модел, където служителите диктуват стратегиите, а ИИ агентите изпълняват операциите. Това може да демократизира достъпа до сложни технологии за малките бизнеси и да преопредели конкуренцията в корпоративния свят.
Още информация четете на:
Халюциниращият ИИ съпорт на Cursor AI
Потребители на Cursor AI, инструмент за програмиране, базиран на изкуствен интелект, са били изненадани от фалшива информация, предоставена от самия ИИ чатбот за поддръжка на платформата. Ботът е съобщил за несъществуващо ограничение за използване на услугата на множество устройства едновременно, което е предизвикало объркване и недоволство сред потребителите.
Съоснователят на Cursor, Майкъл Труел, се е извинил за грешката в Reddit, като е обяснил, че компанията няма подобна политика и че проблемът е възникнал заради неправилен отговор от ИИ бота за поддръжка. Той е добавил, че се разследва дали скорошна промяна в сигурността на сесиите не е довела до неочаквани проблеми с излизането от сесии. Труел е уточнил, че вече всички ИИ отговори в поддръжката ще бъдат ясно обозначени като такива и че проблемът с неволното излизане от сесии, причинен от състезание при бавни връзки, е бил отстранен.
Инцидентът подчертава проблема с "халюцинациите" при ИИ моделите, при които те генерират неточни или измислени отговори, и рисковете, свързани с бързото внедряване на ИИ в потребителската поддръжка без достатъчно тестване.
Още информация четете на: