|
|
Az 5 mítosz, amelyet meg kell kérdőjeleznünk a „belső ellenőrzési hónap” során |
|
Richard Chambers, CIA, CFE, QIAL, CRMA, CGAP, aki 2009 és 2021 között a The Institute of Internal Auditors elnök-vezérigazgatója volt egy rendkívül ütős cikkben összegzi a belső ellenőri szakma kapcsán kialakult legfőbb tévhiteket. Ezek az alábbiak:
|
|
|
De hogy mit ért a különböző pontok alatt a szakember, minden kedves tagtárs megtudhatja az alábbi linket használva. |
|
Az AI új kiberbűnözőket fog teremteni – figyelmeztet a CISA vezetője |
|
Jen Easterly, a Kiberbiztonsági és Infrastruktúra-biztonsági Ügynökség igazgatója szerint a generatív mesterséges intelligencia leegyszerűsíti az online támadásokat a technológiai szakértelemmel nem rendelkező emberek számára, miközben bővíti a tapasztalt hackerek lehetőségeit. Easterly hozzátette, hogy a mesterséges intelligencia „hatékony lehet ahhoz, hogy megbirkózzon a régi technológiával, amely a biztonsági közösség egyik fő csapása”. A mesterséges intelligencia birtokában lévő kiberbűnözők sok mindenre képesek lesznek: az adathalászattól és a spameléstől a zsaroláson és a terrorcselekményeken át a félretájékoztatási kampányokig és a választási szabotázsig. A növekvő méretű paletta növekvő mennyiségekkel párosul majd. |
|
Hogy mire kell figyeljünk, és hogy miként tudjuk ezeket az IT kockázatokat elfogadható szintre csökkenteni, javasoljuk a kedves Tagságnak, hogy olvassák el az alábbi linken található cikket. |
|
|
|
Az Egyesült Államok és az Egyesült Királyság szabályozói hevítik a visszaélés-bejelentő programokat |
|
Az említett országok szabályozó hatóságok fontolgatják, hogy programokat hozzanak létre a visszaélést bejelentő személyek díjazására. Az Egyesült Államokban már létező programok a jogérvényesítési erőfeszítések központi részévé válnak, és a szabályozó hatóságok világszerte alkalmaznak hasonló programokat. Az Egyesült Államok Igazságügyi Minisztériuma március elején bejelentett egy vállalati bűnözési kísérletet, és az Egyesült Királyság Serious Fraud Hivatala is fontolóra vette már a visszaélés-bejelentés jutalmazását lehetővé tevő programokat. |
|
További részletekért kérjük, hogy kattintson az alábbi linkre. |
|
|
|
Új podcast: Navigáció a fenntarthatósági előírásokban |
|
Az „All Things Internal Audit” legújabb epizódjában Mandi McReynolds, a Workiva globális ESG-ért felelős alelnöke és fenntarthatósági igazgatója a fenntarthatósággal kapcsolatos szabályozási környezet alakulását tárgyalja, és tippeket és betekintést nyújt a kapcsolódó jelentéstétel és a megfelelőségi kockázatkezelés támogatásához. Ez a beszélgetés a következő témaköröket tartalmazza:
|
|
Minden kedves tagtársunk elérhet az alábbi linken. |
|
|
Belső ellenőrzési és csalási útmutató frissítése |
|
Megjelent a COSO-t készítő Treadway Bizottság által kezelt Belső ellenőrzési és csalási útmutató harmadik kiadása, mely elmagyarázza a csalások szervezeti szintű megelőzéséért, felderítéséért, értékeléséért és kivizsgálásáért felelős szerepeket. A csalások kockázatának kezelése mindenki közös felelőssége, a felsővezetőktől kezdve és az egész szervezeten át. A csalások hatással lehetnek a termelő eszközeink értékvesztésére, a hatékonyságra, az általános compliance-re, vagy akár a hírnevünkre is. A jelen Globális Útmutatónak (amelyet főként az IIA Globális Belső Ellenőrzési Standardjaival frissítettek) az a célja, hogy növelje a belső ellenőrök csalási kockázattal kapcsolatos tudatosságát, beleértve a belső ellenőrzési funkció szerepét, és útmutatást adjon a csalási kockázatértékelés elvégzéséhez. |
|
|
A dokumentumot mindenki eléri, aki a TheIIA regisztrált tagja az alábbi linken. |
|
|
|
Technológiai óriások kötnek nemzetközi megállapodást a mesterséges intelligencia biztonságról |
|
Az Amazon, a Microsoft és az OpenAI azon nagy technológiai vállalatok csoportjába tartozik, amelyek megegyeztek, hogy lépéseket tesznek az AI-technológia biztonságos fejlesztése érdekében, kiterjesztve a múlt év végén tett kötelezettségvállalásaikat. A vállalatok ígéretet tettek arra, hogy keretrendszereket tesznek közzé, amelyek bemutatják, hogyan mérik az AI-modellek fejlesztésének kockázatait, és bevezetnek egy „kill switchet” a technológia leállítására, ha ezeket a kockázatokat nem lehet mérsékelni. |
|
|
A cikket bárki eléri az alábbi linken. |
|











