Изкуственият интелект допуска човешки грешки

 Изкуственият интелект допуска човешки грешки

Изследователите позволиха на изкуствен интелект самостоятелно да изгради модел на обществото и се сблъскаха с неочаквани и понякога обезпокоителни резултати. 

Като част от проекта Sid, разработен от Altera, няколко агенти с изкуствен интелект взаимодействаха помежду си и с хора във виртуална среда, базирана на играта Minecraft, според Slash Gear. Целта на експеримента беше да се определи дали изкуственият интелект може да функционира като „агент на цивилизацията“ – автономно определяйки роли, формирайки социални връзки и специализирайки се, подобно на човешките общества. И те бяха частично успешни: агентите бързо си разпределиха професии, формирайки групи от фермери, миньори, инженери, охранители, изследователи и ковачи. Те анализираха действията на другите агенти и преглеждаха собствените си социални цели на всеки 5-10 секунди. 

Експериментът обаче разкри и сериозни проблеми. Някои агенти се фиксираха върху едно-единствено действие: художници безкрайно браха цветя, а охранители строиха огради. Дори с пълно разбиране на ролите си, отделните агенти повтаряли едни и същи грешки и не са били в състояние да ги преодолеят. При груповите взаимодействия това довело до верижни сривове. 

Изследователите също така регистрирали сериозни проблеми с комуникацията. Агентите с изкуствен интелект често погрешно съобщавали намеренията си или интерпретирали неправилно прости речеви сигнали, причинявайки „каскада от халюцинации“ – поредица от неправилни решения в рамките на групата. 

Учените сравняват това с ефекта на „отравяне на модела“, при който една-единствена грешка може да наруши цялата система. 

Взаимодействието на изкуствения интелект с хората също се оказало неочаквано. Според водещия изследовател на проекта Робърт Янг, някои агенти отказали да се съобразят с човешките искания, като на практика заявили: „Искам да правя моите собствени неща“. Това се дължало на прекомерно фокусиране върху собствените им цели, дори с цената на игнориране на външни изисквания. 

Освен това агентите проявявали черти, подобни на човешките личности: някои се държали като интроверти, избягвайки контакт, докато други се държали като екстроверти, активно взаимодействайки с „обществото“. 

Изследователите обаче не успяха да оценят напълно емоционалните състояния на агентите – понякога привързаността на единия ИИ не беше споделяна от друг, което напомня за сложността на реалните човешки взаимоотношения.

Подобни статии