Znaczenie nowej polityki rozwoju modeli AI – Wprowadzenie wyjątków przy jednoczesnym nacisku na oznaczanie treści

Ministerstwo Elektroniki i Technologii Informacyjnej wydało niedawno świeże zalecenie, które eliminuje konieczność uzyskania pozwolenia na modelowanie AI w trakcie rozwoju. Zamiast tego zalecenie skupia się na dostosowaniu wymagań zgodności z Zasadami IT z 2021 roku. Ten krok ma na celu rozwiązanie obserwacji, że firmy IT i platformy często zaniedbują swoje obowiązki należytej staranności określone w Zasadach Technologii Informacyjnej.

Zgodnie z nowym zaleceniem rząd obecnie nakłada na firmy obowiązek oznaczania treści generowanych przy użyciu swojego oprogramowania lub platformy AI. Ponadto powinny one informować użytkowników o potencjalnej wadliwości lub niesolidności wyników generowanych za pomocą narzędzi AI. Wymaganie to dotyczące oznakowania ma na celu zwalczanie rozpowszechniania dezinformacji lub deepfake’ów, które mogą być tworzone, generowane lub modyfikowane za pomocą takiego oprogramowania lub zasobów komputerowych.

Co więcej, zalecenie podkreśla znaczenie konfigurowania metadanych w celu ułatwienia identyfikacji użytkowników lub zasobów komputerowych odpowiedzialnych za wszelkie zmiany wprowadzone w treści. Ten krok zapewnia przejrzystość i odpowiedzialność w przypadku modyfikacji.

Potrzeba tego zalecenia wynikła po kontrowersjach dotyczących platformy AI Google’a, która dostarczała wątpliwe odpowiedzi dotyczące premiera Indii, Narendra Modi. W związku z tym 1 marca rząd wydał zalecenie dla mediów społecznościowych i innych platform, które zobowiązałyby je do oznakowania modeli AI w trakcie testów oraz zapobiegania hostowaniu treści nielegalnych. Niezastosowanie się do tego zarządzenia może skutkować działaniami karnymi, jak ostrzegło Ministerstwo Elektroniki i Technologii Informacyjnej.

Poprzez usunięcie wymagania uzyskania zgody rządu na wdrożenie modeli sztucznej inteligencji w trakcie testów lub niesolidnych, świeże zalecenie oferuje większą elastyczność dla rozwoju AI. Jednakże podkreśla znaczenie oznaczenia takich modeli i treści, zapewniając, że użytkownicy są świadomi ich potencjalnej wadliwości lub niesolidności.

Przez to zalecenie rząd ma na celu zachęcenie do innowacji w dziedzinie AI i ochrony użytkowników przed mylącymi informacjami. Przeładowując odpowiedzialność na firmy IT i platformy, rząd stara się rozwiązać obawy związane z wdrażaniem modeli AI, nie zrzekając się jednocześnie przejrzystości i odpowiedzialności.

FAQ

The source of the article is from the blog coletivometranca.com.br

Privacy policy
Contact