Етичният съвет на суверенния фонд на Норвегия на стойност 830 млрд. долара предприе изненадваща стъпка – официално предупреди компаниите по света да не развиват роботи, които могат да убиват.

Норвегия има толкова голям суверенен фонд, че притежава 1.3% от акциите на всички компании по света и законите я задължават да спазва определени етични правила, когато инвестира.

Сред тях е и забрана за участие във фирми, които създават ядрени оръжия или противопехотни мини. Сега председателят на съвета Йохан Андресен съобщи пред агенция "Ройтерс", че ще започнат да следят внимателно компаниите, които изработват "автономни оръжия".

Става въпрос за оръжия, способни да изберат цел и да я атакуват без човешка намеса. Макар че развитието им е в начална фаза и технологията още не е налична, някои изследователи на роботиката и изкуствения интелект смятат, че е въпрос на години, преди да влязат в употреба.

"Това е честно предупреждение", каза Андресен пред "Ройтерс". "Да развивате технология за разпознаване на рака е добре. Но ако адаптирате тази технология за следене на определен индивид в определена обстановка, ако си сътрудничите с други, за да създадете автономно оръжие, не се изненадвайте, ако ви следим изкъсо".

Темата за развитието на изкуствения интелект бе повдигната наскоро от над 1000 експерти и водещи изследователи в областта на роботиката и изкуствения интелект, подписали отворено писмо, в което предупреждават за опасността от употребата на изкуствен интелект за военни цели и "автономните оръжия".

Сред тях бяха основателят на Tesla Елон Мъск, съоснователят на Apple Стив Возняк, главният изпълнителен директор на проекта на Google DeepMind Демис Хасабис и професор Стивън Хокинг.

В писмото се казва: "Технологията е достигнала точка, в която разполагането на (автономни оръжия - бел. ред.) е - на практика, ако не законно - осъществимо в рамките на години, а не на десетилетия, а залозите са високи: автономните оръжия се описват като третата революция във военната наука след изобретяването на барута и ядрените оръжия."

Според авторите изкуственият интелект може да направи бойните действия по-безопасни, но автономните оръжия, които действат на своя воля, ще снижат прага на безопасност и ще доведат до по-голяма загуба на човешки живот.

Дневник