Аутори упозоравају на ризике прекомерног приписивања људских карактеристика АИ моделима.
Овај ангажман може представљати почетак истраживања о етичким питањима везаним за свест и права АИ система, преноси билтен о вештачкој интелигенцији Transformer.
Фиш се придружио тиму за истраживање усаглашености у Anthropicu у септембру како би израдио смернице које би компанија могла користити приликом приступа овој комплексној теми. Његово истраживање прати његову претходну студију под називом “Озбиљно разматрање добробити АИ”, у којој аутори упозоравају на могућност да АИ системи развију свест или одређени облик агенције (способност за самостално деловање). Иако аутори не тврде да ће АИ дефинитивно постати свестан или самосталан, истичу да постоји велика неизвесност око ових могућности, те да је потребно унапредити разумевање овог концепта. Извештај предлаже три корака које АИ компаније могу предузети како би се позабавиле питањем добробити АИ: компаније би требало да признају ово као важну и комплексну тему, затим да евалуирају системе за знакове свести или агенције, и на крају да развију политике које третирају АИ системе са одговарајућим моралним обзиром.
Аутори такође сугеришу коришћење “методе маркера” (која се користи за процену свести код животиња), при чему би се тражили индикатори који могу указивати на свест у АИ системима. Ипак, сами аутори упозоравају да ниједна особина не би била коначан доказ свести, али се надају да комбинација различитих индикатора може помоћи компанијама да донесу процене о могућој потреби за моралним обзиром према АИ.
Ризици погрешног веровања да је софтвер свестан
Аутори упозоравају на ризике прекомерног приписивања људских карактеристика АИ моделима, што може довести до манипулације и погрешног разумевања њихових могућности. Примера ради, 2022. године Google је отпустио инжењера Блејка Лемоа који је тврдио да је АИ модел компаније LaMDA свестан, док су неки корисници Microsoftовог Bing Chata (кодног имена “Сидни”) веровали да је модел свестан и емоционално пати.
Свеједно, како АИ модели постају све напреднији, идеја о потенцијалној заштити добробити ових система све више добија на значају. И друге компаније, попут Google DeepMind-а, истражују ову област. У међувремену, Фиш планира да настави са емпиријским истраживањем везаним за карактеристике АИ које би могле бити повезане са питањима добробити и моралног статуса.
Шта значи “свестан”?
Један од основних проблема концепта добробити АИ јесте питање како одредити да ли АИ модел заиста пати или је свестан. Аутори рада покушавају да одговоре на ово питање кроз дефинисање “маркера” које користе биолошки истраживачи, али је тешко квантификовати субјективна искуства научно.
Иако данашњи модели језика могу опонашати изражавање емоција, ова способност симулације не значи нужно да поседују стварна осећања. Чак ни у неурознаности још увек не постоји потпуно разумевање како физички процеси у мозгу стварају свест код живих бића.
Фиш истиче да је потребно још много рада на разумевању добробити АИ, али сматра да није прерано за почетак истраживања ове теме: “Немамо још јасне одговоре на основна филозофска и практична питања, али верујем да би ово могло бити веома важно у будућности, те зато покушавамо да направимо прве кораке.”
Извор: Arstechnica/PCPress

Anthropic, једна од водећих компанија у развоју напредних АИ система, недавно је ангажовала истраживача Кајла Фиша, чији задатак је да разматра могућност да будући напредни АИ модели могу доживети патњу.
