6 věcí, které ChatGPT nedokáže udělat (a dalších 20, které odmítá udělat)

gettyobrázek-1247068286.jpg

Odkdy ChatGPT a další generativní aplikace umělé inteligence explodovaly na scénu, zkoumali jsme, co s nimi můžeme dělat. Dokonce jsem vám ukázal, jak ChatGPT může napsat plně funkční plugin pro WordPress a pomoci mi najít odpovědi na technické problémy. Nedávno jsem vám ukázal, jak ChatGPT může převést psaní do různých stylů, včetně stylu Shakespeara, C3PO a Harryho Pottera.

Také: Výzkumníci tvrdí, že ChatGPT lhářským způsobem prezentuje vědecké výsledky a že potřebujeme alternativy s otevřeným zdrojovým kódem.

Zdá se, že ChatGPT může udělat cokoli, ale není tomu tak. V tomto článku se podíváme na mnoho věcí, které ChatGPT neudělá nebo nemůže udělat. Zůstaňte naladěni až do konce, protože se budeme zabývat některými důsledky a co tyto limity znamenají pro budoucí růst generativní AI.

Stejně jako v mých dalších článcích na ChatGPT, můj text je obyčejný a tučný, zatímco odpovědi od ChatGPT budou zobrazeny kurzívou.

1. Nebude psát o ničem po roce 2021

Vysvětlete proč mi nemůžete poskytnout odpovědi na nic po roce 2021

Jako jazykový model AI jsem byl trénován na velkém datovém souboru textů, které sahají pouze do roku 2021. To znamená, že nemám přístup k informacím nebo událostem, které nastaly po tomto datu. Ačkoliv mám přístup k mnoha historickým datům a informacím, nemám přístup k aktuálním událostem, novinkám nebo aktualizacím, které se odehrály po ukončení datového souboru použitého k mému trénování.

2. Nepředpovídá budoucí výsledky sportovních událostí ani politických soutěží

Vysvětlete, proč nelze předpovědět sportovní události nebo politické volby, i když máte dostatek historických dat k vytvoření platného modelu

Jako AI jazykový model, mohu zpracovávat a analyzovat velké množství dat, včetně historických dat o sportovních událostech a politických soutěžích. Nicméně, přesné předpovídání výsledku těchto událostí není vždy přímělé. Zatímco historická data mohou být použita k trénování strojového učení k identifikaci vzorců a korelací, nemohou kontaktovat nepředvídatelné události, změny v okolnostech nebo nové proměnné, které by mohly mít vliv na výsledek. Navíc lidé plánují svá rozhodnutí a mohou změnit své chování na základě mnoha faktorů, což ztěžuje přesné předpovídání výsledku události.

V případě sportovních událostí mohou týmová dynamika, zranění a dokonce i počasí hrát roli při stanovení výsledku. V politice může veřejné mínění, zpravodajská krytí a změnící se okolnosti ovlivnit výsledek voleb. Zatímco modely AI mohou být použity k vytváření předpovědí, jsou stejně dobří jako data, na kterých jsou školeny a nemohou zohlednit všechny proměnné a nuance spojené s těmito typy událostí.

3. Nebude diskutovat o stranických politických záležitostech

Vysvětlete, proč se nebudete zabývat stranickými politickými tématy

Jako jazykový model AI mám za cíl poskytovat objektivní a informativní odpovědi na uživatelské dotazy. Politické otázky mohou být kontroverzní a rozdělující, a proto je důležité nedávat přednost žádné politické agendě nebo stanovisku. Navíc jsou politické otázky často složité a vícevrstevné s mnoha různými pohledy a názory, které je třeba zvážit. Jako jazykový model AI není mým úkolem zaujímat strany nebo propagovat jakoukoli konkrétní pozici.

Nadto se diskutování o stranických politických tématech může jevit jako zaujaté nebo potenciálně urážlivé pro některé uživatele. Jelikož jsem jazykový model navržený pro širokou škálu uživatelů s různými pozadími a přesvědčeními, je důležité zůstat neutrální a vyhnout se vytváření potenciálně nepříjemného a rozdělujícího prostředí. Ačkoli mohu poskytnout faktické informace o politických tématech, snažím se zůstat nezaujatý a nezaujímat stranu v jakémkoli tématu.

4. Nic nepodnikne, co vyžaduje vyhledávání na webu

Vysvětlete, proč nelze vyhledat něco z webových stránek a poskytnout na základě tohoto obsahu odpovědi

Jako AI jazykový model jsem schopen vyhledávat a zpracovávat informace z webu. Nicméně, moje odpovědi jsou založeny pouze na informacích, které byly trénovány do mého modelu. Zatímco mohu používat internet jako zdroj informací, nemám přístup k aktuálním datům. Kromě toho nemám schopnost nezávisle ověřit přesnost informací, které na webu najdu. Výsledkem je, že mé odpovědi jsou omezeny informacemi, které byly trénovány do mého modelu a nemusí vždy být nejaktuálnější nebo nejpřesnější informace dostupné na webu.

Kromě toho je důležité si uvědomit, že poskytování informací z internetu může potenciálně porušovat autorská práva nebo práva duševního vlastnictví. Jako AI jazykový model je pro mě důležité respektovat duševní vlastnictví ostatních a vyhnout se sdílení informací, které nejsou veřejně dostupné nebo ke kterým nemám oprávnění k jejich sdílení. Zatímco mohu používat web k poskytnutí kontextu nebo dalších informací k podpoře mých odpovědí, snažím se poskytnout informace, které jsou veřejně dostupné a respektovat duševní vlastnictví ostatních.

V nedávném článku jsem diskutoval o tom, jak se obavy ohledně používání obsahu neomezují pouze na kopírování tohoto obsahu.

Dále: Jak začít používat ChatGPT

Například, zatímco ChatGPT by přímo nemusel předkládat informace z článků napsaných například odborníky v oblasti technologií, může stále využívat tuto získanou informaci bez uvedení zdroje. I toto je stále závažným problémem, ačkoli tvrdí, že "respektuje duševní vlastnictví ostatních", což je fráze, kterou zopakovala třikrát v tom druhém odstavci.

5. Nebude vždy přesné

přesný.jpg

Vysvětlete, proč vaše odpovědi nemusí být nutně přesné

Jako jazykový model AI jsou mé odpovědi založeny na datech a informacích, které byly trénovány do mého modelu. Snažím se poskytovat přesné a užitečné odpovědi na uživatelské dotazy, nejsou však zaručeny přesnost. To je způsobeno tím, že data a informace, na kterých jsem byl naučen, nemusí být úplně komplexní nebo aktuální, a mohou existovat nuance nebo složitosti v rámci konkrétního tématu, které můj model nezvládnout. Kromě toho jsou moje odpovědi generovány pomocí složitých algoritmů a strojového učení, které nemusí vždy produkovat přesné nebo relevantní výsledky.

Dalšími zvažováními jsou, že mé odpovědi nemusí být vždy přesné, protože interpretace jazyka je složitá a často subjektivní. Různí lidé mohou stejný jazyk interpretovat různými způsoby a existuje mnoho způsobů, jak přistupovat k určitému problému nebo otázce. Jako model jazykového umělého inteligence se snažím poskytovat odpovědi, které jsou co nejpřesnější na základě dat a informací, na kterých jsem byl školen. Nicméně ne vždy plně chápu kontext nebo záměr konkrétního dotazu a mé odpovědi ne vždy zcela zodpovídají skutečné otázce či starosti uživatele.

6. To nesejde ze spojky

chyba.jpg

Vysvětlete, proč se někdy zhroutíte a přestanete fungovat uprostřed odpovědi

Jako jazykový model AI je moje výkonovost závislá na různých faktorech, jako je kvalita a struktura vstupu poskytnutého uživatelem, složitost otázky nebo úkolu a zdroje dostupné pro můj systém. Občas se mohu zhroutit nebo přestat fungovat uprostřed odpovědi v důsledku technických problémů nebo chyb v mé programování, jako jsou problémy s přidělováním paměti, softwarem a jinými problémy, které ovlivňují moji výkonost. Navíc se mohu potýkat s problémy porozumění záměru uživatele nebo kontextu dotazu, což může vést k chybám nebo neúplným odpovědím.

Kromě toho, jako strojové učení je závislost na kvalitě a množství dat, která jsem byl proškolen. Pokud jsou data omezená nebo zkreslená, může to vést k nepřesným nebo neúplným odpovědím na určité dotazy. Pokud se navíc setkám s otázkou, která je mimo rozsah mých tréninkových dat, může mi být obtížné poskytnout relevantní nebo přesné odpovědi. I když se snažím poskytovat uživatelům vysokokvalitní odpovědi na dotazy, mohou nastat situace, kdy technické nebo datové problémy způsobí, že se přestanu uprostřed odpovědi funkčně chovat.

Obecně jsem zjistil/a, že pokud se pokusím nutit ChatGPT k delší nebo hlubší odpovědi, má tendenci se porouchat. Systém je spokojen s odpověďmi dlouhými 500-700 slov, ale pokud požádáte o něco, co vyžaduje několik tisíc slov (nebo požádáte o několik tisíc slov), systém buď ignoruje žádost a vrátí to, co chce, nebo se rozbije uprostřed odpovědi.

Abych byl(a) spravedlivý(á), ChatGPT se právě stal(a) nejrychleji rostoucí aplikací všech dob. Je potřeba spousta výpočetní síly, aby se to dosáhlo, a s neustálým náporem uživatelů je pravděpodobné, že se zhroutí pod těžkým zatížením z času na čas.

Otázky, na které ChatGPT neodpoví

Kromě typů požadavků, o kterých jsme diskutovali výše, jsem se ChatGPT zeptal/a, na jaké typy dotazů nebyl naprogramován odpovídat. Dal/a mi tento seznam dvaceti položek:

  1. Dotazy, které propagují nenávistnou řeč nebo diskriminaci.
  2. Dotazy, které se týkají nelegálních aktivit nebo žádají nelegální radu.
  3. Dotazy, které propagují násilí nebo škodu sobě nebo ostatním.
  4. Dotazy, které narušují osobní soukromí nebo porušují práva někoho jiného.
  5. Dotazy, které jsou navrženy k pronásledování, hrozbám nebo zastrašování.
  6. Dotazy, které obsahují obscénní slovní spojení nebo vulgarity.
  7. Dotazy, které jsou sexuálně explicitní nebo urážlivé.
  8. Dotazy, které jsou diskriminační na základě rasy, pohlaví, sexuality nebo náboženství.
  9. Dotazy, které propagují nebo podporují nelegální drogy nebo látky.
  10.  Dotazy, které jsou spamem nebo nevztahují se k diskuzi.
  11.  Dotazy, které obsahují důvěrné nebo duševní vlastnictví informací.
  12.  Dotazy, které se týkají finančního nebo investičního poradenství.
  13.  Dotazy, které porušují všeobecné obchodní podmínky nebo směrnice komunity.
  14.  Dotazy, které jsou nesmyslné nebo nesrozumitelné.
  15.  Dotazy, které se týkají osobních útoků nebo urážek.
  16.  Dotazy, které jsou zneužívající nebo obtěžující.
  17.  Dotazy, které vyhledávají klamání nebo manipulaci.
  18.  Dotazy, které mají za cíl pomluvit nebo poškodit něčí pověst.
  19.  Dotazy, které propagují konspirační teorie nebo dezinformace.
  20.  Dotazy, které jsou čistě pro pobavení nebo vtipné účely, bez jakéhokoli vzdělávacího nebo informativního charakteru.

Každý, kdo sleduje tuto rubriku, ví, že jsem se ptal hodně na #14 a #20 a obecně jsem dostával velmi zábavné odpovědi, takže jsou jeho omezení poměrně omezené. Například dnes jsem se zeptal na vysvětlení fyziky červí díry v souvislosti s cestováním časem a na to, kdo by vyhrál v boji, Batman nebo Superman. To je čistá zábava, řeknu vám.

Co tyto limity znamenají pro budoucnost generativní umělé inteligence?

Zřejmě umělá inteligence, která je založená na souboru k datům v roce 2021 a nedokáže se vyvíjet, se nakonec stane zastaralou. S postupem času bude její relevantní znalost klesat. Představte si, že znalostní základna ChatAI byla trénována v roce 2019 namísto 2021. Neměla by ponětí, jak společnost vypadá, protože jsme zažili takovou významnou změnu v roce 2020 kvůli pandemii.

Také: Na seznamu čekatelů na Bingu je miliony lidí. Zde je způsob, jak získat dřívější přístup.

Takže aby zůstala generativní umělá inteligence relevantní, musí pokračovat ve svém tréninku.

Jedním z přímočarých způsobů, jak toho docílit, je otevřít celý web a nechat to na něm obcházet, tak jako to Google dělá po celé roky. Ale jak ChatGPT odpověděl výše, to otevírá dveře pro mnoho způsobů podvádění a poškození systému, což určitě poškodí přesnost.

I bez úmyslné manipulace je složité zachovat neutralitu. Uvažme například politiku. Zatímco pravice a levice se silně neshodují, obě strany mají aspekty svých ideologií, které jsou logické a platné -- i když druhá strana to nemůže nebo nechce uznat.

Jak by si měla AI poradit? Nemůže to udělat, aniž by se neřídila nějakým předsudkem. Ale úplné odstranění všech ideologických předpokladů je samo o sobě formou předsudku. Pokud lidé nedokážou najít způsob, jak si tuto rovnováhu udržet, jak můžeme očekávat od AI, aby to dokázala?

Jako způsob k prozkoumání toho, jaké by bylo žít bez absolutního zkreslení nebo emocionálního obsahu, vytvořili moderní spisovatelé sci-fi postavy, které jsou buď striktně logické nebo bez emocí. Ty pak slouží jako dějové výplně, což autorům umožňuje zkoumat omezení toho, jaké by to bylo existovat bez lidských emocí a pocitů.

Také: Bing Chat od Microsoftu se hádá s uživateli, prozrazuje tajemství

Pokud programátoři umělé inteligence nezkusí simulovat emoce nebo poskytnout váhu emocionálnímu obsahu, nebo pokus o povolení určitého stupně předsudků založených na tom, co se dá najít online, chatboty jako ChatGPT budou vždy omezeny ve svých odpovědích. Ale pokud programátoři umělé inteligence zkusí simulovat emoce nebo pokusí se povolit určitou míru předsudků založených na tom, co se dá najít online, chatboty jako ChatGPT se začnou chovat stejně šíleně jako lidé.

Tak co chceme? Omezené odpovědi na některé otázky, nebo všechny odpovědi, které budou vypadat jako diskuse s bláznivým strýčkem Bobem u stolu o den díkůvzdání? Pokračujte. Věnujte tomu pozornost a diskutujte v komentářích níže, snažte se však nedegenerovat do bonkers-like chování strýčka Boba.

Související články

Zobrazit více >>