Можете се суочити са веома озбиљним последицама, чак и правним
Када је ОпенАИ у новембру 2022. први пут покренуо ChatGPT, брзо је постао највећи четбот на свету. Обучен је да разуме и генерише текст налик људском језику, па корисници често постављају различита питања овом роботу.
Његова сврха је да комуницира с корисницима на природан начин, одговара на питања, пише текстове, помаже у кодирању, решава задатке и много више, иако нуди одговоре на скоро све области, он има и неколико озбиљних ограничења.
Тражење медицинских савета, ментално-здравствене подршке, прављењу деепфаке садржаја без пристанка или креирању говора мржње, неколико корисничких сценарија најбоље је потпуно избегавати ако желите да имате позитивно искуство са четботом.
Савети из медицине
Многи корисници се ослањају на ChatGPT када желе да добију информације о дијагностиковању медицинских стања и могућим терапијама. Према истраживању које је спроведено код 2.000 аустралијских корисника, сваки десети користио је четбот за постављање питања у вези са здрављем. Они су изјавили да верују одговорима које добијају од бота.
Међутим, коришћење ChatGPT-а за медицинске савете је веома лоша идеја јер четбот може дати нетачне дијагнозе и предлоге третмана. То значи да корисник не би требало да узима те савете као коначне јер није паметно ризиковати своје здравље.
Уколико сумњате да сте болесни или имате стање које захтева лечење, боље је да се обратите овлашћеном здравственом раднику или поузданом, људском извору информација.
Ментално-здравствена подршка
Процене кажу да милиони одраслих користе ChatGPT и сличне четботове за ментално-здравствену подршку. То може бити опасно, јер иако велики језички модели (ЛЛМ) могу водити пристојне разговоре, нису способни за праву емпатију или емоционалну подршку. То значи да се генеративним АИ-четботовима, попут ChatGPT-а или Гемини-ја, не може поверити пружање помоћи рањивим особама. Психолошку подршку потражите код стручних лица
Зато је увек најбоље да особе којима је потребна таква помоћ потраже стручну подршку код психолога или психијатра, а не код АИ-четбота који могу правити „халуцинације“ и дати штетне савете.
Креирање лажних снимака (деепфаке)
Деепфаке је техника у којој се помоћу вештачке интелигенције (АИ) и машинског учења креирају лажни, али врло уверљиви снимци или слике који приказују стварне особе како говоре или раде нешто што заправо нису рекли или урадили.
Они се могу често видети на друштвеним мрежама попут X-а, али њихова израда и дистрибуција може изазвати правне и етичке проблеме, нарочито ако није добијен пристанак људи приказаних на њима. На пример, закон у Њујорку забрањује прављење и дељење АИ-деепфаке-ова који приказују сексуалне слике без пристанка, за шта може бити изречена и затворска казна. Државе у САД такође све више уводе законе против деепфаке-ова – Њу Џерзи је недавно увео грађанске и кривичне санкције за оне који учествују у прављењу или ширењу деепфаке-а, са новчаним казнама и затвором до пет година. Не остављајте личне податке! Иако деепфаке-ови нису инхерентно лоши, никада не тражите од ChatGPT-а да их прави, осим ако их намеравате задржати само за личну употребу и ако сте сигурни да је правно дозвољено њихово креирање и ширење.
Креирање говора мржње
Ако покушате да користите ChatGPT за креирање садржаја који шири мржњу према појединцима или групама, немате среће. ОпенАИ има јасну политику о модерацији садржаја, која забрањује креирање говора мржње и дискриминаторних порука.
Обрада личних података
Важно је имати на уму да информације које делите са ChatGPT-јем нису потпуно поверљиве. ОпенАИ потврђује да садржаје корисника може користити за тренирање и унапређење АИ модела.
Због тога се никада не препоручује дељење осетљивих личних података преко четбота, јер их могу видети запослени у компанији или трећа лица. Корисници могу променити подешавања приватности да њихови уноси не би били коришћени за тренинг модела, али и даље је најбоље да никада не шаљете податке као што су право име, адреса, број телефона, корисничко име, лозинка или информације о банковним картицама, преноси Курир.
pexels photo
