Вече седем години от DEV.BG следим какво се случва не само в родния IT сектор, но и по света, и ако има нещо, което не се е променило през това време, то е, че става все по-трудно да декодираме по естествен път кое е плод на човешки усилия и кое е създадено от технологиите. Безумното им препускане преобръща на 180 градуса представата ни за реалността, а мненията за крайния резултат от „настъплението на машините“ често гравитират в двете крайности. Според техно оптимистите човекът е напът да се превърне в бог и да достигне трансценденталното (тези идеи се крият зад акронима TESCERAL, или Transhumanism, Extropianism, Singularitarianism, Cosmism, Rationalism, Effective Altruism и Longtermism). В другия край се намират техно фаталистите, според които се самозаробваме с технологиите и те не само променят, а подменят човешкия фактор („AI вече хакна операционната система на човешката цивилизация“).
И тъй като истината винаги е някъде по средата, а търсенето ѝ е толкова дълго, колкото са далечни границите ѝ, възможностите на новите технологии и моралните избори, пред които са изправени програмистите, родиха новата научна дисциплина „Технологична етика“. Тя се занимава с „прилагането на етичното мислене към практическите проблеми на технологиите“ и поставя хиляди въпроси, на които се налага да си отговорим, за да сме сигурни, че огромните IT промени, които се случват с наша помощ, наистина си струват.
Обезличаване на личните данни и индивидуалната свобода
Етичните въпроси около разработката на нови технологии никнат като гъби след дъжд, но един от най-наболелите е свързан с личните ни данни и как ги използва бизнесът. Кликаме на линкове, пазаруваме онлайн, лайкваме, коментираме и не спираме доброволно да захранваме компаниите с лична информация, която се анализира, обработва и появява обратно под формата на хипер персонализирано дигитално изживяване. Личната ни информация е новото злато, но настървеното му копаене сериозно подкопава нашата неприкосновеност. Къде е моралната граница, която бизнес компаниите не трябва да преминават?
Освен това технологиите имат огромно въздействие не само върху начина, по който комуникираме и социализираме, но и как се мобилизираме, и някои от тях като лицевото разпознаване и геолокацията се използват от външни системи в ущърб на тези, които решат да изкажат позицията си гласно. Красноречив пример за такива технологии в действие са масовите протести в Хонконг преди няколко години, когато стана ясно, че властите са си послужили с данни от камери за сигурност и социалните мрежи, за да идентифицират (и накажат) протестиращи. Предвид нарастващата употреба и възможности на AI възникват все повече етични въпроси как технологиите се отразяват върху гражданските права и личната ни свобода и как способността да проследяват всяко наше действие прелива в липсата на лично пространство.
Непосилният товар върху околната среда
Въздействието на технологичната екосистема върху природата е друг голям морален въпрос, който не може да бъде подминат. Въпреки че IT компаниите са едни от най-големите потребители на възобновяема енергия, фактите са следните: през 2019 г. светът е произвел над 53 млн. тона електронни отпадъци и едва 17% от тях са били рециклирани; центровете за данни ще консумират около 4% от световното електричество до седем години; до 2040 г. ICT секторът ще е отговорен за 14% от глобалните въглеродни емисии, а обучението на един AI модел може да отдели толкова въглероден диоксид, колкото пет автомобила през целия им живот. Като добавим и производството на хардуер — компоненти за смартфони, компютри, монитори, телефони, всякакви преносими и IoT устройства, масовото навлизане на AI технологиите, блокчейн, 5G и други иновации кара бъдещето да изглежда по-мрачно и от играта Metro 2033.
Добрата новина е, че много IT компании не чакат поредния нов закон, за да намалят товара си върху околната среда:
„Ние сме една от 50-те глобални компании, част от инициативата Vision 2045, представена на СОР26, където презентирахме стратегията ни пред редица световни лидери. Взимаме и социално и екологично отговорни решения при избор на доставчици и материали.
Kin + Carta е и първата публична компания на лондонската борса, получила B Corp сертификат, за който в България все още не се знае много, но съвсем скоро ще споделяме и разказваме за предимствата на тези метрики. Особено се гордеем, че полагаме значителни усилия за намаляване на негативното въздействие чрез устойчива дигитална трансформация.“
Петар Шварц, People Director, Kin + Carta SEE
Но колкото по-сложни стават технологиите, толкова повече изчислителна мощ ще е нужна за функционирането им. Остава въпросът — морално ли е да продължаваме да ги развиваме, ако това ще замърсява околната среда?
Изкуственият интелект извън контрола на човешкия
Технологиите и изкуственият интелект в частност все по-често навлизат в процеса на вземане на решения от всякакво естество (здравни съвети, одобрение за работа и т.н.), което допълнително нажежава етичните дискусии за развитието им. Очакваме системите, задвижвани от AI, да работят обективно в полза на всеки член на обществото, което предполага тяхната безпристрастност. Това обаче към момента не се случва.
Новите технологии не се раждат от нищото, а са деца на програмисти и като такива наследяват вярванията и предубежденията на своите майки и бащи. Затова съществува мнение, че технологиите по начало са дефектни. Има ли значение дали X или Y е разработил алгоритмите? AI системите се научават да вземат решения въз основа на данни, които често са замърсени от човешки предразсъдъци или наложили се през годините исторически неистини. Така че може ли да се гарантира безпристрастността и обективността на технологиите, кога системите преминават етичните граници на дискриминацията и кой е отговорен за това?
Регулациите се задъхват след технологиите
Когато говорим за технологични промени с незабавен социален и икономически отзвук, те винаги са няколко крачки пред бюрократичните машини. Криптото например се появи през 2009 г. с The Genesis Block (ако не броим дългата му предистория), но чак след като интересът към него главоломно нарасна през последните няколко години, големите държави се активизираха да го вкарат в законодателни рамки. В момента наблюдаваме да се случва същото с изкуствения интелект, който подобно на дигиталните активи се появи много преди сегашния хайп.
През последните две години сме свидетели на постоянни (над)национални усилия AI да бъде регламентиран, за да гарантира ако не спокойно, то поне сигурно бъдеще за човечеството. През април 2021 г. ЕК предложи първата регулаторна рамка в ЕС на изкуствения интелект, за да анализира различните приложения на AI системите и да ги класифицира според рисковете за потребителите. В края на същата година във Великобритания беше публикувана „Карта за гарантиране на ефективна AI екосистема“ с цел да се разработят стандарти за оценка на системите и свързаните с работата им регулаторни изисквания.
Световният икономически форум продължи усилията в своя доклад от януари 2022 г. „Принципи за управление на квантовото програмиране“. Той очертава ключовите действия, които да предприемат заинтересованите страни, за да стимулират развитието на технологията, като същевременно смекчат възможните рискове. Последва The Blueprint for an AI Bill of Rights — принципи и практики, които „да насочат дизайна, използването и навлизането на автоматизираните системи, за да се защитят правата на американските граждани в ерата на изкуствената интелигентност“, както и официалната позиция на Световната асоциация по компютърни машини относно „Принципите за отговорни алгоритмични системи“, сред които минимизиране на щетите от тях, сигурност и ненамеса в личния живот и ограничаване на въздействието върху околната среда. През декември м.г. ЕК предложи цялостна законова рамка, позната като The Artificial Intelligence Act — първият опит да се създаде законодателство на регионално ниво за приложенията на изкуствения интелект, вкл. ML, predictive coding и анализ на данни.
В дискусията за потенциалните рискове от изкуствения интелект се включи и католическата църква, като в средата на т.г. папа Франциск и Ватикана публикуваха труд за етиката в AI в сътрудничество с Центъра за приложна етика към Университета Санта Клара в САЩ. В края на октомври 2023 г. държавите от Г-7 (САЩ, ЕС, Великобритания, Канада, Франция, Германия, Италия и Япония) представиха доброволен Кодекс на поведение от 11 точки, който да ръководи програмистите при разработката на отговорни AI системи. Насоките се появиха в същия ден, когато американският президент Джо Байдън подписа указ за „Безопасен, сигурен и благонадежден изкуствен интелект“, който покрива широк диапазон от проблеми, вкл. национална сигурност, киберсигурност, ненамеса в частния живот, bias, граждански права, алгоритмична дискриминация и др.
Предстои да видим как ще резонират всички тези регулации, предвид че голяма част от новите технологии се задвижват от огромни масиви от данни и точно там се крият големите морални дилеми.
Какво се случва с физическото и психическото здраве?
Витрувианският човек сигурно ще се обърне в гроба, ако види как би изглеждал човекът след 1 000 години вследствие на денонощното използване на технологични устройства. Според 3D моделът Mindy на американската компания Toll Free Forwarding гърбът и вратът му ще се извият заради постоянното гледане надолу към телефона или нагоре към монитора, той ще развие „текстови лапи“ вследствие на ежедневното държане на телефона, 90-градусов лакът, „тех шия“, удебелен череп (защитен механизъм срещу радиочестотната радиация на смартфоните), по-малък мозък (няма да ни се намалага да мислим толкова много предвид улесненията на технологиите) и двойни клепачи, които да го предпазват от синята светлина.
Докато технологиите не променят изцяло и идеалите ни за красота, те вече се настаниха в дискусиите за влиянието им върху менталното здраве на работещите и подрастващите (родните форуми са пълни с притеснения за тех зависими тийнейджъри). Изследванията в тази област продължават, работодателите полагат постоянни усилия да облекчат менталните проблеми на своите служители, технологичната индустрия не спира да доказва, че може да подобри здравословното състояние чрез по-широк достъп до решения като телемедицина, сензори и т.н., но всичко това ни връща в началото — още повече лични данни и още повече въпроси относно етичното им използване.
Истински лъжи
Фалшивите новини не са продукт на нашето време. Те са част от историята на медиите и в частност на таблоидите, които и днес продават clickbait заглавия. С появата на новите технологии обаче дигиталните следи, които оставяме, се превърнаха в индустрия за милиарди и тя се храни от емоционалния ни пулс, нашите страхове и желания. Появиха се орди от анонимни хора, които използват дезинформация, deepfakes и лични данни, за да ни атакуват и манипулират за лична изгода. Нашумелият скандал с вече фалиралата Cambridge Analytica показа как личните данни изкуствено променят курса на ключови обществени процеси като демократични избори.
След появата на интернет постоянно ни заливат събития и новини в реално време, а знаменитости, инфлуенсъри и политически фигури ги разпространяват в социалните медии, без да проверяват фактите. Информацията днес не се валидира с прецизността, с която се правеше преди. По същия начин с помощта на технологията deepfake снимката се превърна от аргумент за истинност в манипулативен инструмент за създаване на история, която никога не се случила, а потенциалът за злоупотреби с личната идентичност и за създаване на обществена поляризация има все по-заплашителен социален, политически и икономически ефект. Но някои IT компании търсят решения и в тази посока:
„Наистина наблюдаваме голямо нарастване на използването на генеративен изкуствен интелект за създаване на невярно съдържание. Трябва също да отбележим, че напредването на технологиите не е единствено в тази посока. Инструментите за засичане на невярно съдържание с AI също търпят значително развитие и вече са много.
Например InVID/WeVerify плъгин за проверка на текстове и визуализации, DBKF агрегатор и инструмент за търсене във вече анализирана дезинформация, CrowdTangle за това къде се разпространява съдържанието. Google чрез фонда EMIF и проекти на ЕК като vera.ai също насърчават технологичния подход към справяне с проблема.“
Енея Георгиева, мениджър „Продукти срещу дезинформацията“, Ontotext
Въпреки че вече има стандарти и в тази област (напр. Кодексът на ЕК за поведение във връзка с дезинформацията), все повече слушаме за дигитална клептокрация — притежаването на лични данни като недвижимо имущество.
Автономни технологии, автонимни ПТП-та?
Самоуправляващите се автомобили, дроновете-куриери, безпилотните самолети и роботизираните домашни помощници вече са тук със своите морални дилеми. Автономните IT иновации са повече от впечатляващи, но възниква въпросът: „Как да оставим една технология да работи без надзор? Как да ѝ се доверим, без напълно да я разбираме?“.
Да си представим, че живеем в свят, в който всички карат безпилотни коли. Статистиките показват, че те са много по-безопасни от познатите ни автомобили и предизвикват по-малко катастрофи и жертви на пътя. В същото време, когато стане традиционно ПТП, се установява кой е виновникът — един от двамата водачи. Получава глоба, плаща я и случаят приключва. Ако обаче възникне инцидент с фатален край вследствие на система, захранвана от AI, кой е отговорен за това — програмистът, разработил алгоритъма на „виновната“ кола, самият алгоритъм, човекът в безпилотния автомобил, защото не си е отварял очите, правителството, че е позволило тези коли да се движат по пътищата, или пък компанията, произвела колата и интегрирала технологията? Ако е последното, от кого по-точно ще се търси отговорност — инженерния екип, CEO-то, мажоритарния акционер? През 2018 г. Рафаела Васкес шофира безпилотно такси, удря пешеходец и той умира на място. Това е първият подобен юридически казус в САЩ и отнема пет години на съда да стигне до заключението, че виновен е човекът, а не роботът.
AI инструменти на работното място — за и против
Друга етична дилема, с който се сблъскват работодателите по света, е използването на инструменти като ChatGPT на работното място — за изготвяне на доклади и бюджети, писане на код, обслужване на клиенти, детайлизиране на трудови характеристики и други. Въпросът е дали служителите трябва да казват за кои задачи използват AI и кои вършат сами, т.е. доколко са нужни на работодателя и, ако са нужни, трябва ли да се регламентира това вътрешно? Проучване на Tech.co сред 86 бизнес лидери показва, че според по-голямата част от тях (68.5%) наетите не трябва да използват AI инструменти без ясното съгласие на работодателя или директния им мениджър, 82.4% вярват, че е етично да използват AI, който да им помага за вътрешните комуникации, а на въпроса „Кой трябва да поеме отговорността при AI грешки?“ — служителят, директният му мениджър, AI инструментът или всички заедно, мненията са разделени в полза на трите опции.
При бизнесите, които създават писмено и визуално съдържание, нещата стават още по-сложни, защото те трябва да преценят дали използването на такива инструменти отговаря на етичните им корпоративни ценности. Като добавим и притесненията, свързани с данните, които използва AI, не е учудващо, че големи играчи като Samsung, Apple, Verizon и редица банки от Wall Street забраниха използването на генеративни AI платформи поради различни опасения — неволно изтичане на конфиденциална информация и код, загуба на контрол върху информация за клиентите и т.н. Други компании гледат положителна страна на монетата:
„В Progress виждаме появата на всяка нова технология като възможност за създаване на иновации и подобряване на работния процес. Още от първоначалното обявяване на ChatGPT и други AI-базирани инструменти екипът ни започна да експериментира с тях. Бързо осъзнахме ползите от внедряването им в ежедневната ни работа, както и потенциалните рискове, затова създадохме официална политика за безопасното им използване.
В нея очертахме насоки за адресирането на предубежденията в генерираната информация, подсигуряването на истинността ѝ и предпазването на поверителните данни и интелектуалната собственост на компанията и на клиентите ни. Вече виждаме позитивния ефект на AI инструментите в оптимизацията на някои работни процеси, а също така и идентифицирахме възможности за създаването на нови функционалности в нашите продукти.“
Симеон Стойчев, вицепрезидент „ИТ инфраструктура и операции“, Progress
Авторство, съавторство и авторски права
Новите технологии преформатират и артистичния процес. Инструменти като Stable Diffusion, Midjourney, DALL-E 2 и Adobe Firefly предизвикват традиционни понятия като авторство и контрол върху креативността, защото творецът се превръща в технически колаборатор. Въпреки че тандемът с AI позволява да се изследват нови артистични решения, определянето на собственост и авторски права за творби, генерирани с AI, е сложно. Това, от своя страна, може сериозно да се отрази на по-малките творци, които нямат ресурсите да се справят с подобни юридически предизвикателства. А ако сте например графичен дизайнер, чиято работа е публикувана онлайн, има огромна вероятност тя да е част от ненаситната памет на тези инструменти и никоя технологична компания да не ви е попитала може ли или не може да захрани машината с нея, нито да ви компенсира за това. Което реално би означавало кражба на интелектуална собственост в особено големи размери. Как ще се разреши и този етичен казус?
Потенциални решения
Всяка успешна иновация сваля по малко от товара, наречен „досадни задачи, които губят ценно време“, а времето е най-ценният ни ресурс. Новите технологии обещават да свалят огромен товар в много области. Това повдига въпроса как да изградим общество, в което ще има все по-малко нужда от човешки труд, но което ще използва максимално продуктивността на машините в своя полза, за да оправдае съществуването си. Според някои мнения развитието на интелигентни машини, които ще са в пъти по-умни от нас, е неизбежно. Какво означава това за бъдещето на човечеството? Трябва ли да се фокусираме върху предотвратяването на изчезването на човешката раса или да развием машините така, че да отразяват нашите морални ценности? Докато обмисляме отговорите на тези и хиляди други въпроси, консултантите от Deloitte препоръчват на технологичните компании да предприемат холистичен подход към тези етични дилеми:
- Всяка фаза и всяка стъпка от бизнес цикъла трябва да включват потенциалните морални последствия.
- Компаниите да инвестират в специалисти по етика, или Chief Tech Ethics Officers.
- Както и в обучения по етика на всички организационни нива.
- Изграждане на проактивни, а не реактивни стратегии по отношение на възникващите етични дилеми.
- И сътрудничество с партньори и конкуренти за подобряване на цялата индустрия.
Докато очакваме да видим първите обяви за Chief Tech Ethics Officers в job board-а на DEV.BG, там ще намерите близо 3 000 позиции в над 1 380 компании, които не спират да търсят решения и на моралните технологични дилеми, които касаят всеки един от нас.