Společnost volá po ochraně před hrozbami, které představuje umělá inteligence. Zahrnutí aspektů AI do ESG analýzy firem investorům pomůže
Spektrum rizik vyplývajících z umělé inteligence je široké. Na jedné straně existují scénáře zkázy zahrnující „superinteligentní“ umělé inteligence, kterým jejich tvůrci nerozumějí a nedokážou je ovládat. K bezprostřednějším hrozbám patří šíření dezinformací z velkých jazykových modelů (LLM), které mohou „mít halucinace“, tedy generovat falešná fakta nebo vytvářet chybné interpretace.
Složitost technologie a obtíže s jejím zvládnutím se odrážejí v úsilí regulačních orgánů, které se snaží o cosi, ale celosvětově zatím nefungují. Pokusy o samoregulaci v rámci celého odvětví se také příliš neujaly.
Břemeno však není pouze regulační. Majitelé velkého množství kapitálu prokázali svou schopnost pohnout s důležitými aspekty tím, že se angažují ve společnostech v environmentálních, sociálních problematikách a v otázkách řízení (ESG). Zajímá je změna klimatu nebo blaho zaměstnanců, a pohánějí firmy k odpovědnosti za prohřešky. Vzhledem k potenciálním nebezpečím spojeným s umělou inteligencí, je nyní čas, aby investoři posoudili, jak příjemci jejich investic tento mocný nástroj využívají.
Budoucnost ještě není napsána
Lídři jako Sam Altman z OpenAI nebo technologičtí průkopníci jako Elon Musk, už vyjádřili přání zlepšit bezpečnost AI. Centrum pro správu umělé inteligence (Centre for the Governance of AI GovAI) ve své nedávné studii navrhlo padesátibodový seznam podrobně popisující opatření, pokud jde o umělou inteligenci. Tato opatření byla sdílena s akademiky a řediteli firem, včetně společností DeepMind, která patří pod Google a zaměřuje se na umělou inteligenci, a Anthropic. Naprostá většina s návrhy, které zahrnovaly hodnocení nebezpečných schopností a vypracování bezpečnostních omezení, souhlasila.
To je povzbudivé. Přesto společnosti taková opatření zavádějí pomalu. Jen málo organizací má v současnosti nějaký výbor pro rizika spojená s AI nebo týmy interního auditu. Znepokojující jsou také nedávné škrty v „odpovědných týmech AI“ ve společnostech, jako jsou Microsoft, Meta, Google a Amazon. Dnešní technologické transformace přicházejí v době úspor nákladů a snaze odolat recesi.
Potřeba větších bezpečnostních opatření se bude s rostoucí sofistikovaností technologií jen zvyšovat. Například společnost OpenAI poskytla méně informací o architektuře svého nejnovějšího systému ChatGPT než dříve, a to nejen z konkurenčních důvodů, ale také – jak tvrdí – proto, aby minimalizovala riziko zneužití technologie špatnými subjekty. Společnosti by se brzy mohly ocitnout v nepříjemné situaci, kdy budou kvůli bezpečnosti a vedoucí pozici na trhu dělat kompromisy v oblasti transparentnosti.
Přesto existují způsoby, jak tato nebezpečí zmírnit. Ačkoli se OpenAI zdráhá sdílet tajemství ChatGPT, společnost oznámila, že v budoucnu plánuje zadat audity svých modelů umělé inteligence třetím stranám. Účastníci studie GovAI byli rovněž ochotni používat audity a hodnocení rizik prováděné třetími stranami. Rozsáhlejší audity společností zabývajících se umělou inteligencí by mohly být nezbytným krokem, protože obavy ze zneužití umělé inteligence rostou.
Minulost, současnost a budoucnost
Není to poprvé, co společnosti musely změnit své chování v reakci na existenční hrozbu. V roce 1988 vědec NASA James Hansen řekl: „Byl zjištěn skleníkový efekt, který nyní mění naše klima“.
V reakci na ekologickou krizi se udržitelný kapitalismus stal tou silou, která se snaží o pozitivní změny. Tón udávají regulační orgány, ale peníze mluví. Hrozba, že vliv peněz bude silnější než dodržování norem, přiměla firmy, aby se vážněji zamyslely nad svým dopadem na životní prostředí.
Otázky týkající se umělé inteligence se přirozeně doplňují se současnými analýzami ESG díky snadno měřitelným informacím. Například investoři se mohou ptát na počet zaměstnanců zabývajících se umělou inteligencí, jaký podíl z nich se zaměřuje na bezpečnost umělé inteligence a jakou mají ve společnosti autoritu. Analytici mohou zkoumat, co společnosti dělají v rámci různých oblastí, jako je monitorování, přesnost a kontrola funkcí. Také hlášení incidentů byla oblast, na kterou studie GovAI upozornila a kterou by mnozí analytici mohli znát díky standardním rámcům ESG. Dále jsou zde explicitnější kontroly rizik – jak společnosti monitorují hrozby a co dělají pro ochranu před nimi?
Nedávná práce koalice Collective Impact Coalition for Digital Inclusion představuje jednu z mála koordinovaných snah finančních institucí o spolupráci s technologickými společnostmi v oblasti AI. Koalice, v níž je Fidelity International jedním z hlavních členů, nedávno zjistila, že pouze něco málo přes 10 % z celkového počtu 150 předních společností zabývajících se umělou inteligencí zveřejnilo své závazky v oblasti etické umělé inteligence.
Ty, které závazky zveřejnily, nabídly pohled na to, jak by to mohlo vypadat v praxi. Některé z nich navrhly „vypínač“ pro deaktivaci systémů AI, jiné vypracovaly etické pokyny, kterými se mají zaměstnanci řídit. Jejich začlenění jako předpokladů pro bezpečné používání AI by bylo pro většinu společností rozumným krokem – a investoři by se na ně měli ptát.
Umělá inteligence a aktivní investování
Investoři pravděpodobně ještě plně neocenili nebezpečí, které umělá inteligence představuje pro portfolia. Mnozí z nich budou ve svých udržitelných portfoliích potichu držet lídry v oblasti umělé inteligence – společnosti jako Microsoft a Nvidia. Ty se vždy objevují v největších fondech zaměřujících se na ESG. Otázkou je, co to představuje. Existenční hrozbu, nebo udržitelnou investici? Umělá inteligence by mohla připravit půdu pro pokrok, nebo rozložit demokracii. Začleněním umělé inteligence do analýz a hodnocení ESG by investoři měli poznat rozdíly a měli by být schopni hnát ty společnosti, které se chovají špatně, k odpovědnosti.