Digital Age: Директно в браузъра

Digital Age: Директно в браузъра

Digital Age: Директно в браузъра

Една ключова характеристика на така популярните чатботове - алгоритми с изкуствен интелект, които предоставят широк набор от информация и са способни да решават зададени от потребителите задачи - е, че за да извлечете максимума от тях, трябва да имате онлайн достъп до различните платформи. Повечето модели с изкуствен интелект, като ChatGPT, се изпълняват на сървъри, отдалечени на стотици километри от потребителите. Това означава, че данните не са поверителни и че ИИ може да бъде използван за създаване на ваш профил. Доста по-улесняващо ще бъде, ако всичко това може да се случва локално на вашето устройство без да е нужно да преминавате през отделни сайтове и да сте зависими от интернет връзка.

Предвид, че интернет браузърът е мястото, от което огромната част от потребителите започва своето сърфиране в мрежата, подобен тип програма е естествен "вход" към новото поколение дигитална информация. Сега Opera става първият голям браузър, който предлага именно вграден достъп до местни модели с изкуствен интелект.

От началото на месец април 2024 г. базираната в Осло компания въвежда експериментална поддръжка за 150 варианта на местни големи езикови модели (LLM), които обхващат приблизително 50 семейства. Те включват Mixtral от Mistral AI, Llama от Meta, Gemma от Google и Vicuna.

Казано възможно най-просто, LLM са мощни платформи за автокорекция. Те всъщност не "знаят" нищо, но разпознават как думите трябва да се съчетават, за да звучат естествено и да имат смисъл. На достатъчно високо ниво това започва да изглежда така, сякаш говорите с истински човек. Има още много неща, но това предава същността.

Когато става въпрос за провеждане на собствени LLM, не е необходимо да сте огромна компания или изследователска организация, за да имате достъп до тях: съществуват няколко публично достъпни програми, включително една, пусната от Meta, наречена LLaMa; други са разработени от изследователи и доброволци. Общата идея е, че публично достъпните LLM ще помогнат за насърчаване на иновациите и подобряване на прозрачността.

Неоспоримите предимства

Въвеждането на вградени локални LLM идва с редица предимства. Локалните LLM ви позволяват да обработвате подсказките си директно на вашата машина, без да е необходимо да изпращате данни към сървър. Добавянето на достъп до тях в браузъра дава възможност за по-лесен достъп до локалните ИИ алгоритми и дава на всички потребители възможността да обработват подсказките си локално, при пълна конфиденциалност или дори офлайн. Използването на локални големи езикови модели означава, че данните на потребителите се съхраняват локално на тяхното устройство, което им позволява да използват генериращ изкуствен интелект, без да е необходимо да изпращат информация до сървър.

Друго предимство на локалните модели е, че няма забавяне при комуникацията с външни сървъри, което може да ускори времето за отговор.

Функцията е налична в канала за разработчици на Opera One като част от програмата AI Feature Drops на компанията за ранни потребители. Тя се предоставя като безплатно допълнение към собствената услуга Aria AI на Opera. Дали вградените локални LLM ще станат част от основните браузъри на компанията, зависи от реакциите на общността на ранните осиновители и от бъдещото развитие на ИИ.

За да тестват някой от наличните LLM, потребителите трябва да надградят до най-новата версия на Opera Developer и да активират функцията. След като бъде изтеглен вариантът на модела, той ще замени Aria, докато потребителите не го включат отново или не започнат нов чат с ИИ.

Бързото развитие на изкуствения интелект дава възможност за напълно нови начини на използване на интернет. Появата на локален достъп до алгоритмите дава тласък на това и започва да изследва напълно нов и неизследван подход, който може да подобри сърфирането в интернет в бъдеще.

Понастоящем Opera заема приблизително 4,88% от пазара на браузъри в Европа и 3,15% в целия свят. Вече открояваща се с вградени функции като безплатната си VPN услуга, блокиране на реклами и услугата за връщане на пари, добавянето на достъп до местни LLM може да осигури на компанията предимство на фона на все по-конкурентния пейзаж на ИИ платформите.

Opera експериментира с функции, задвижвани от изкуствен интелект, още от миналата година. Компанията пусна асистент, наречен Aria, който се намира в страничната лента през май миналата година и го въведе във версията за iOS през август. През януари 2024 г. Opera заяви, че изгражда браузър с изкуствен интелект със собствен енджин за iOS, тъй като Законът за цифровия пазар на ЕС налага на Apple да премахне задължителното изискване за WebKit енджина за мобилните браузъри.

Новата функция е полезна, ако възнамерявате да тествате различни модели локално, но ако искате да спестите място, има много онлайн инструменти като Poe и HuggingChat на Quora, с които можете да изследвате различни модели.

Некомерсиалната алтернатива наваксва с бързи темпове

Ако искате да изпробвате нещо по-различно от комерсиалните ИИ модели, най-добрият вариант е да експериментирате с алгоритми с отворен код. Отвореният код е популярна алтернатива с хиляди налични модели, вариращи от тези, предлагани от големи организации като Meta, до тези, разработени от отделни ентусиасти. Работата с тях обаче е свързана със собствен набор от предизвикателства. Те могат да изискват солиден хардуер: много памет и евентуално графичен процесор. Очевидно е, че колкото по-мощен е вашият лаптоп или настолен компютър, толкова по-добре, но стига да имате минимум 8 GB RAM, би трябвало да можете да стартирате поне един или два по-малки модела с изкуствен интелект като Mistral и други. Въпреки че моделите с отворен код се подобряват, те обикновено не отговарят на възможностите на по-подготвени продукти като ChatGPT, който се ползва от подкрепата на голям екип от инженери. Накрая, не всички модели могат да се използват с търговска цел.

Локалното използване на модели, както и алтернативите с отворен код, дават възможност на физически лица и малки предприятия да експериментират и да въвеждат иновации с ИИ, без да се нуждаят от скъпи сървъри или решения в облака. Независимо дали сте студент, ентусиаст по ИИ или професионален изследовател, вече наистина има доста начини, по които можете лесно да стартирате модели на ИИ на своя компютър с Windows, Mac или Linux.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ