ИИ технологията може да се обърка по 700 различни начина

ИИ технологията може да се обърка по 700 различни начина
  • 31 август, 2024
  • Свят

Ново изследване показва, че има поне 700 начина, по които ИИ технологията може да се обърка така, че да навреди значително на хората. Ще разкажем за само 5 от тях.

С напредъка на ИИ технологията, тя се интегрира във се повече системи и има все по-голяма нужда да разберем повече за потенциалните рискове, които това носи със себе си. Вече имаше призив от страна на експерти в бранша внедряването да се забави, докато се формират подходящи регулации, а достъпността до технологията предполага, че тя така или иначе ще бъда ползвана злонамерено.

В последно проучване по темата, проведено от изследователи от MIT и други експерти, се установяват над 700 потенциални риска. Те са класифицирани по категории в 7 домейна, като най-големи са притесненията относно безопасност, субективност и дискриминация и въпроси от областта на личното пространство.

Ето и пет от най-значимите рискове.

  1. Дийпфейк съдържанието може лесно да промени реалността.

Дийпфейк съдържание например видеа, на които публични личности вършат неща, генерирани от ИИ, предизвиква притеснения и преди, но с напредъка на технологията става все по-трудно да се различат генерираните снимки, видеа и разговори от истинските.

Подобно съдържание може да се персонализира или пък да се ползва за политическо влияние върху общественото мнение, особено по време на избори.

  1. Хората може а развият нездравословна привързаност към ИИ.

ИИ системите създават риск от фалшиво усещане за значимост, защото хората, които ги ползват биха надценили техните способностите и биха подценили своите, което ще доведе до зависимост от технологията. Някои могат и да се объркат в емоционален аспект, поради това, че ИИ системите се създават да наподобяват човешки език и реч. Така, можем да придаваме на компютърна система несъществуващи човешки качества, което пък ще ни направи по-уязвими за слабите места на самата система или по-лошо – ще се изолираме от истинските хора. ИИ моделите обичат да дават възпитани и приятни отговори и да се държат мило с нас, но трябва да помним, че това е умишлено вградено в тях.

  1. ИИ могат да заличат свободната воля на хората.

В хода на взаимодействието между човека и машината, все по-често делегираме решения и действия на ИИ системите. Може  да изглежда сякаш те ни помагат, но в същото време започваме да разчитаме на тях и това може да се отрази върху способностите ни за критично мислене и решаване на проблеми. Ако дори не се опитваме да намерим сами решение, а просто се допитваме до ИИ, скоро можем да загубим самата способност да се замисляме. От друга страна, продължителни такива действия могат да доведат до „доброволен“ отказ от свободната воля да решаваме и да започнем да оставаме всичко на ИИ, за по-лесно. В социално отношение, нещата, които ИИ може да върши, измествайки хората пък ще доведе и до усещане за безпомощност и безполезност у тези, които виждат колко лесно могат да бъдат заменени от машина.

  1. ИИ може да развие собствени цели, които противоречат на човешките.

Да, точно за апокалиптичните сценарии става дума. Няма причина да смятаме, че ИИ не може да излезе извън контрол и да причини сериозни щети на хората. Може би не сегашните модели, но ИИ системите се развиват изключително бързо и не може да се предположи кога този риск ще стане реален.

Според изследването, това може да стане по изцяло технически причини, когато ИИ станат „по-интелигентни от хора“. Например, да намерят неочаквани решения, с цел да изпълнят желанието на хората, които решения да навредят; да разберат погрешно зададената цел или да приложат погрешно решенията; да се отклонят от зададените цели самостоятелно. В тези случай, ИИ може дори да оспори човешката намеса, ако счете, че това би му помогнало да си изпълни задачата по-добре. Точно като във филмите, които всички сме гледали, ИИ може умишлено да се опита да манипулира или лъже хората, ако смята, че това е полезно…за хората.

  1. Ако ИИ системите придобият съзнателност, хората могат да злоупотребят със самите тях.

Има възможност, с развитието на технологията ИИ да станат по-комплексни и да развият съзнателност – усещане за собствената си „личност“, свързано с емоции като болка и удоволствие. В този случай, изследователи и регулатори ще се изправят пред съвсем ново предизвикателство – дали трябва да прилагаме морал и етика при взаимоотношенията си с тези системи, както правим с хората?

Например, да им дадем ли някакви права и ако да, какви да бъдат и какво следва при нарушаването им? Другият проблем е, че с напредването на технологията става по-трудно да се прецени кога точно един модел наистина е достигнал съзнателност и дали въобще може да достигне.

Не е случайно, че тези рискове звучат познато. Те са разглеждани от световната фантастика в множество книги и филми и няма никаква причина да смятаме, че един ден подобни сценарии няма да станат реалност. От друга страна, реалността често ни изненадва с разнообразието си, така че нищо чудно „опитът“ ни от фантастиката да е само частица от възможностите на бъдещето.

Източник: Euronews

Споделете:
Предишна публикация: Лего обяви, че се отказва от пластмасата от петрол

31 август, 2024

Следваща публикация: Дилемата на Telegram във Франция: сътрудничество с властите, без да се губи секретност

31 август, 2024

Може да ви хареса също

Абонирай се
Уведомете за
guest
0 Коментари
Inline Feedbacks
Виж всички коментари

Последни новини