Chatboti Novinky Umelá inteligencia

Ako funguje chatbot Claude? Anthtopic odhalil systémové prompty!

Anthropic systémové prompty pre Claude

Nástroj umelej inteligencie Claudenové prvenstvo. Spoločnosť Anthropic, ktorá ho vyvíja, ako prvá v segmente AI chatbotov zverejnila systémové príkazy svojich modelov. Tento krok smeruje k väčšej transparentnosti a pomáha používateľom lepšie pochopiť, ako pracovať s veľkými jazykovými modelmi využívajúcimi umelú inteligenciu.

Precedens medzi AI firmami

Krok spoločnosti Anthropic je nezvyčajný, keďže všetky ostatné AI firmy si takéto informácie strážia ako dôverné. Myšlienka transparentnosti a etického vývoja umelej inteligencie však stála priamo pri zrode firmy Anthropic, preto je takéto rozhodnutie ľahšie pochopiteľné.

Zverejnené prompty (nájdete ich tu) obsahujú zaujímavé informácie, o tom, čím sa chatboti Claude riadia pri odpovediach. Okrem iného sa z nich dozvedáme, že matematické či logické problémy Claude rieši vo viacerých krokoch a podobne si na viac častí rozčleňuje aj dlhé úlohy. Takisto sa v promptoch opisujú spôsoby, ako má chatbot reagovať na kontroverzné témy.

Pre ilustráciu sme vybrali  niekoľko zaujímavosti z promptovej základne pre Claude 3.5 Sonnet, aktuálne najpokročilejší model od Anthtopic:

  1. Zásady neospravedlňovania sa: Claude vyhýba sa ospravedlňovaniu sa, čo je zaujímavým prístupom, pretože mnoho chatbotov sa snaží udržať priateľskú a defenzívnu konverzáciu. Tento prístup môže pre niekoho pôsobiť neobvyklejšie alebo menej empaticky.
  2. Face blindness (tvárová slepota): Claude sa správa, akoby nerozpoznával ľudské tváre na obrázkoch. Táto unikátna vlastnosť sa zameriava na ochranu súkromia a obmedzuje schopnosť chatbota robiť personálne identifikácie, čo je eticky významné, ale zároveň môže limitovať jeho užitočnosť v určitých kontextoch.
  3. Neschopnosť otvárať odkazy a videá: Claude nemôže otvárať URL adresy, odkazy alebo videá. Toto obmedzenie môže byť pre niektorých používateľov prekvapujúce, najmä v dobe, keď je prístup k multimediálnemu obsahu bežnou súčasťou digitálnej komunikácie.
  4. Prístup k citlivým a kontroverzným témam: Claude sa snaží poskytovať informácie o kontroverzných témach opatrne a jasne, bez toho, aby explicitne uvádzal, že téma je citlivá. Tento prístup môže byť vnímaný ako snaha o objektivitu, ale zároveň môže vyvolať otázky o tom, ako chatbot spracováva a prezentuje citlivé informácie.
  5. Neschopnosť učiť sa z konverzácií: Claude nemôže uchovávať ani sa učiť z aktuálnych konverzácií. Toto obmedzenie môže byť prekvapujúce, pretože mnohí očakávajú, že moderné AI systémy sa budú zlepšovať na základe interakcií s používateľmi.
  6. Priama komunikácia bez zbytočných fráz: Claude sa vyhýba používaniu zbytočných fráz ako „Samozrejme!“ alebo „Určite!“, čo môže byť pre niektorých používateľov osviežujúce, zatiaľ čo iní môžu preferovať priateľskejší tón.
  7. Ponuka rozdelenia dlhých úloh: Ak používateľ požiada o veľmi dlhú úlohu, Claude ponúka jej rozdelenie na menšie časti a žiada spätnú väzbu po dokončení každej časti. Tento prístup môže byť prekvapujúci, pretože ukazuje na snahu o interaktívnu spoluprácu s používateľom.

Ako používať Claude AI efektívnejšie

Okrem zaujímavých informácií o fungovaní modelov Sonnet, Opus a Haiku sú však zverejnené systémové prompty aj dobrou inšpiráciou, ako s modelmi Claude pracovať efektívnejšie.

Keďže jazykové modely AI pracujú vždy v nejakom kontexte, pre presnejší výsledok je kľúčové zadať potrebné kontextové informácie. Ešte lepšie je uviesť nejaký príklad.

Pri dlhších úlohách je efektívnejšie rozdeliť ich na sériu vzájomne prepojených úloh. Znižuje sa tým riziko tzv. halucinovania.

Takisto je dobré používať zrozumiteľné a jednoznačné zadania. Užitočné môžu byť aj negatívne prompty – čo používateľ od chatbota nechce.

Otvorenosť spoločnosti Anthropic ohľadom nastavení jej AI modelov prináša nové možnosti pre vývojárov aj používateľov. Pomáha zvyšovať dôveru v technológie umelej inteligencie a podporuje ich zodpovedné využitie.

Zdroj: Decrypt