Pozwolenie niezależnym hakerom na badanie modeli AI pod kątem stronniczości i dyskryminacji

Nowa propozycja, która ma na celu prawne umożliwienie niezależnym hakerom obejścia środków bezpieczeństwa cyfrowego w celu zbadania modeli AI pod kątem stronniczości i dyskryminacji, zyskuje uznanie. Celem jest zwiększenie przejrzystości w rozwoju technologii AI i zapewnienie, że te systemy są sprawiedliwe i bezstronne.

Propozycja, która obecnie jest rozważana w ramach procesu przeglądu przez Urząd Praw Autorskich Stanów Zjednoczonych, pozwoliłaby badaczom ominąć kontrole dostępu i uzyskać dostęp do bezpiecznych modeli AI wyłącznie w celu badania stronniczości. Dotyczyć to będzie popularnych produktów generatywnych AI oferowanych przez firmy takie jak OpenAI, Microsoft, Google i Meta Platforms.

Grupy lobbingowe, w tym Rada ds. Hackingu, twierdzą, że taka wyłączenie jest konieczne w celu sprawdzenia wiarygodności i sprawiedliwości systemów AI. Poprzez umożliwienie niezależnym badaczom przetestowania i odkrycia potencjalnych wad, można pomóc w zapobieganiu rasistowskiej dyskryminacji w systemach AI lub generowaniu szkodliwej treści, takiej jak syntetyczny materiał związany z wykorzystywaniem dzieci.

Zwolennicy propozycji, w tym eksperci prawni i osoby z branży, uważają, że poleganie wyłącznie na dostawcach AI w celu zapewnienia integralności i bezpieczeństwa tych systemów nie jest wystarczające. Wykluczenie to jest zgodne z ostatnim zarządzeniem wykonawczym Prezydenta Bidena w sprawie AI, w którym podkreśla się konieczność rozwiązania problemów związanych z stronniczością w rozwoju AI.

Propozycja spotkała się z poparciem firm zajmujących się cyberbezpieczeństwem, grup ds. polityki oraz gigantów technologicznych takich jak Google i Microsoft. Te grupy argumentują, że wyłączenie to umożliwi badaczom zidentyfikowanie i rozwiązanie stronniczości, co skutkować będzie bardziej wiarygodnymi algorytmami i systemami.

Jednakże, mogą pojawić się przeciwności propozycji, zwłaszcza ze strony osób uważających swoje modele AI za bardzo poufne i własnościowe. Takie opory mogą wynikać z obaw dotyczących potencjalnego nadużycia tego wyłączenia.

W miarę trwania procesu przeglądu, pozostaje zobaczyć, czy umożliwienie niezależnym hakerom badania modeli AI pod kątem stronniczości i dyskryminacji stanie się rzeczywistością. Jednakże, propozycja wywołała istotną debatę na temat potrzeby przejrzystości i odpowiedzialności w rozwoju technologii AI.

The source of the article is from the blog windowsvistamagazine.es

Privacy policy
Contact