Изкуственият интелект допуска човешки грешки
Изследователите позволиха на изкуствен интелект самостоятелно да изгради модел на обществото и се сблъскаха с неочаквани и понякога обезпокоителни резултати.
Като част от проекта Sid, разработен от Altera, няколко агенти с изкуствен интелект взаимодействаха помежду си и с хора във виртуална среда, базирана на играта Minecraft, според Slash Gear. Целта на експеримента беше да се определи дали изкуственият интелект може да функционира като „агент на цивилизацията“ – автономно определяйки роли, формирайки социални връзки и специализирайки се, подобно на човешките общества. И те бяха частично успешни: агентите бързо си разпределиха професии, формирайки групи от фермери, миньори, инженери, охранители, изследователи и ковачи. Те анализираха действията на другите агенти и преглеждаха собствените си социални цели на всеки 5-10 секунди.
Експериментът обаче разкри и сериозни проблеми. Някои агенти се фиксираха върху едно-единствено действие: художници безкрайно браха цветя, а охранители строиха огради. Дори с пълно разбиране на ролите си, отделните агенти повтаряли едни и същи грешки и не са били в състояние да ги преодолеят. При груповите взаимодействия това довело до верижни сривове.
Изследователите също така регистрирали сериозни проблеми с комуникацията. Агентите с изкуствен интелект често погрешно съобщавали намеренията си или интерпретирали неправилно прости речеви сигнали, причинявайки „каскада от халюцинации“ – поредица от неправилни решения в рамките на групата.
Учените сравняват това с ефекта на „отравяне на модела“, при който една-единствена грешка може да наруши цялата система.
Взаимодействието на изкуствения интелект с хората също се оказало неочаквано. Според водещия изследовател на проекта Робърт Янг, някои агенти отказали да се съобразят с човешките искания, като на практика заявили: „Искам да правя моите собствени неща“. Това се дължало на прекомерно фокусиране върху собствените им цели, дори с цената на игнориране на външни изисквания.
Освен това агентите проявявали черти, подобни на човешките личности: някои се държали като интроверти, избягвайки контакт, докато други се държали като екстроверти, активно взаимодействайки с „обществото“.
Изследователите обаче не успяха да оценят напълно емоционалните състояния на агентите – понякога привързаността на единия ИИ не беше споделяна от друг, което напомня за сложността на реалните човешки взаимоотношения.