
Predstavte si digitálnu verziu seba samého, ktorá sa pohybuje rýchlejšie ako vaše prsty – agenta poháňaného umelou inteligenciou, ktorý pozná vaše preferencie, predvída vaše potreby a koná vo vašom mene. Toto nie je len asistent, ktorý odpovedá na podnety; robí rozhodnutia. Prehľadáva možnosti, porovnáva ceny, filtruje šum a dokončuje nákupy v digitálnom svete, zatiaľ čo vy žijete svoj deň v reálnom svete. Toto je budúcnosť, ku ktorej smeruje toľko spoločností zaoberajúcich sa umelou inteligenciou: agentívna AI.
Značky, platformy a sprostredkovatelia nasadia svoje vlastné nástroje a agentov AI, aby uprednostňovali produkty, cielili ponuky a uzatvárali obchody, čím vytvoria nový digitálny ekosystém veľký ako vesmír, kde stroje komunikujú so strojmi a ľudia sa pohybujú tesne mimo okruhu diania. Nedávne správy, že OpenAI integruje systém platieb do ChatGPT, ponúkajú pohľad do tejto budúcnosti – nákupy by sa čoskoro mohli bezproblémovo dokončiť priamo v platforme bez toho, aby spotrebitelia museli navštíviť samostatnú stránku.
Carrie Ryan
Vedúca strategička spoločnosti Trustpilot.
Agenti AI sa stávajú autonómnymi
Ako sa agenti AI stávajú schopnejšími a autonómnejšími, predefinovú, ako spotrebitelia objavujú produkty, robia rozhodnutia a komunikujú so značkami každý deň.
To vyvoláva zásadnú otázku: keď za vás nakupuje váš agent AI, kto je zodpovedný za rozhodnutie? Koho budeme brať na zodpovednosť, keď sa niečo pokazí? A ako zabezpečíme, aby ľudské potreby, preferencie a spätná väzba z reálneho sveta mali stále váhu v digitálnom svete?
V súčasnosti sú operácie väčšiny agentov AI nepriehľadné. Neuvádzajú, ako bolo rozhodnutie urobené alebo či boli do toho zapojené komerčné stimuly. Ak váš agent nikdy neponúkne určitý produkt, možno sa ani nikdy nedozviete, že to bola možnosť. Ak je rozhodnutie zaujaté, chybné alebo zavádzajúce, často neexistuje jasná cesta k náprave. Prieskumy už ukazujú, že nedostatok transparentnosti narúša dôveru. Prieskum YouGov zistil, že 54 % Američanov nedôveruje AI pri robení nezaujatých rozhodnutí.
Problém spoľahlivosti
Ďalšou úvahou je halucinácia – prípad, keď systémy AI produkujú nesprávne alebo úplne vymyslené informácie. V kontexte zákazníckych asistentov poháňaných AI môžu mať tieto halucinácie vážne následky. Agent môže dať sebavedomú nesprávnu odpoveď, odporučiť neexistujúcu firmu alebo navrhnúť možnosť, ktorá je nevhodná alebo zavádzajúca.
Ak asistent AI urobí kritickú chybu, napríklad zarezervuje používateľa na nesprávne letisko alebo skreslí kľúčové funkcie produktu, dôvera používateľa v systém sa pravdepodobne zrúti. Dôveru, ktorá bola raz zlomená, je ťažké znovu vybudovať. Bohužiaľ, toto riziko je veľmi reálne bez priebežného monitorovania a prístupu k najnovším údajom. Ako to vyjadril jeden odborník, príslovie stále platí: „Čo do toho dáš, to z toho dostaneš.“ Ak systém AI nie je správne udržiavaný, pravidelne aktualizovaný a starostlivo riadený, halucinácie a nepresnosti sa nevyhnutne vkradnú.
Pri aplikáciách s vyšším rizikom, napríklad finančné služby, zdravotníctvo alebo cestovanie, sú často potrebné ďalšie bezpečnostné opatrenia. Tie by mohli zahŕňať verifikačné kroky s ľudskou účasťou, obmedzenia autonómnych akcií alebo odstupňované úrovne dôvery v závislosti od citlivosti úlohy. V konečnom dôsledku si udržanie dôvery používateľov v AI vyžaduje transparentnosť. Systém musí dokázať, že je spoľahlivý pri opakovaných interakciách. Jedno medializované alebo kritické zlyhanie môže výrazne oddialiť prijatie a poškodiť dôveru nielen v nástroj, ale aj v značku, ktorá za ním stojí.
Už sme to videli
Tento vzorec sme už videli pri algoritmických systémoch, ako sú vyhľadávače alebo kanály sociálnych médií, ktoré sa v záujme efektívnosti odklonili od transparentnosti. Teraz tento cyklus opakujeme, ale stávky sú vyššie. Formujeme nielen to, čo ľudia vidia, ale formujeme aj to, čo robia, čo kupujú a čomu dôverujú.
Existuje ešte ďalšia vrstva zložitosti: systémy AI čoraz viac generujú samotný obsah, na ktorý sa iní agenti spoliehajú pri rozhodovaní. Recenzie, súhrny, popisy produktov – všetko prepísané, skrátené alebo vytvorené rozsiahlymi jazykovými modelmi trénovanými na extrahovaných údajoch. Ako rozlíšime skutočné ľudské pocity od syntetických napodobenín? Ak váš agent napíše recenziu vo vašom mene, je to skutočne váš hlas? Mala by mať rovnakú váhu ako tá, ktorú ste napísali sami?
Toto nie sú okrajové prípady; rýchlo sa stávajú novou digitálnou realitou presakujúcou do reálneho sveta. A dostávajú sa do centra toho, ako sa buduje a meria dôvera online. Overená ľudská spätná väzba nám už roky pomáha pochopiť, čo je dôveryhodné. Ale keď AI začne sprostredkúvať túto spätnú väzbu, či už úmyselne alebo nie, situácia sa začína meniť.
Dôvera ako infraštruktúra
Vo svete, kde za nás hovoria agenti, sa musíme pozerať na dôveru ako na infraštruktúru, nielen ako na funkciu. Je to základ, na ktorom stojí všetko ostatné. Výzvou nie je len predchádzať dezinformáciám alebo zaujatosti, ale zosúladiť systémy AI s komplikovanou, nuansovanou realitou ľudských hodnôt a skúseností.
Agentívna AI, ak sa správne použije, môže urobiť elektronický obchod efektívnejším, personalizovanejším a dokonca dôveryhodnejším. Ale tento výsledok nie je zaručený. Závisí to od integrity údajov, transparentnosti systému a ochoty vývojárov, platforiem a regulačných orgánov zaviesť pre týchto nových sprostredkovateľov vyšší štandard.
Dôkladné testovanie
Je dôležité, aby spoločnosti dôkladne testovali svojich agentov, overovali výstupy a používali techniky, ako sú slučky spätnej väzby s ľudskou účasťou, aby znížili halucinácie a zlepšili spoľahlivosť v priebehu času, najmä preto, že väčšina spotrebiteľov nebude skúmať každú odpoveď generovanú AI.
V mnohých prípadoch používatelia budú brať to, čo agent hovorí, ako fakt, najmä ak interakcia pôsobí bezproblémovo alebo autoritatívne. O to dôležitejšie je, aby podniky predvídali potenciálne chyby a zabudovali do systému bezpečnostné opatrenia, čím zabezpečia, že dôvera sa zachová nielen dizajnom, ale aj v predvolenom nastavení.
Recenzné platformy zohrávajú dôležitú úlohu pri podpore tohto širšieho ekosystému dôvery. Máme spoločnú zodpovednosť za zabezpečenie toho, aby recenzie odrážali skutočné pocity zákazníkov a boli jasné, aktuálne a dôveryhodné. Takéto údaje majú jasnú hodnotu pre agentov AI. Keď systémy môžu čerpať z overených recenzií alebo vedia, ktoré podniky si vytvorili povesť transparentnosti a odozvy, sú lepšie vybavené na to, aby používateľom prinášali dôveryhodné výsledky.
V konečnom dôsledku otázka neznie len komu dôverujeme, ale ako si túto dôveru udržiavame, keď sú rozhodnutia čoraz viac automatizované. Odpoveď spočíva v premyslenom dizajne, neúprosnej transparentnosti a hlbokej úcte k ľudským skúsenostiam, ktoré poháňajú algoritmy. Pretože vo svete, kde AI nakupuje od AI, sú to stále ľudia, ktorí sú zodpovední.