Sztuczna inteligencja potrzebuje człowieka u steru
Sztuczna inteligencja obiecuje uczynić nasze zadania łatwiejszymi, pracę bardziej produktywną, a firmy bardziej wydajnymi. Nowe badania przeprowadzone przez Slack wykazały, że 80% pracowników korzystających z generatywnych narzędzi AI doświadcza wzrostu produktywności – a to dopiero początek. Asystenci AI tacy jak Salesforce Einstein Copilot mogą już odpowiadać na pytania, generować treści i dynamicznie automatyzować działania. Pewnego dnia asystenci staną się cyfrowymi agentami sprzedaży i usług, przewidując nasze potrzeby oraz działając w naszym imieniu.

 REKLAMA 
 ERP-VIEW.PL- STREAMSOFT 
 
Jednak wraz z każdym postępem w dziedzinie sztucznej inteligencji pojawiają się nowe obawy natury etycznej. A co, jeśli asystent AI zaoferuje złą rekomendację produktu? A co, jeśli podejmie błędne działania w istotnych sprawach, takich jak finanse osobiste lub informacje medyczne? Wówczas stawka nagle staje się znacznie wyższa. Pojawia się zatem istotne pytanie, w jaki sposób możemy wykorzystać moc AI bez narażania się na ryzyko?

Człowiek u steru

Musimy zauważyć, że AI jest sama w sobie ewolucją. Każdego dnia robimy kroki naprzód, ale nie zawsze jesteśmy w stanie wyjaśnić, dlaczego sztuczna inteligencja robi to, co robi. Nie jesteśmy także w stanie wyeliminować każdego przypadku niedokładności, toksyczności lub dezinformacji. Dlatego zdaniem Salesforce sztuczna inteligencja potrzebuje człowieka u steru. Z tych powodów ważne jest, aby ludzie mieli pełną kontrolę nad systemami AI. Jednak w miarę jak sztuczna inteligencja staje się coraz bardziej wyrafinowana, może być trudno wymyślić sposób, jak nadać jej ludzki charakter. W przypadku nowej generacji sztucznej inteligencji czasami nie jest realistyczne, abyśmy angażowali się w każdą interakcję z nią lub przeglądali każdy wynik wygenerowany przez AI.

Dlatego właśnie sztuczna inteligencja potrzebuje człowieka u steru. Zamiast prosić ludzi o interweniowanie w każdą indywidualną interakcję z AI, projektujemy bardziej wydajne, ogólnosystemowe mechanizmy kontroli, które stawiają ludzi na czele wyników generowanych przez sztuczną inteligencję. Innymi słowy, ludzie nie zawsze wiosłują łodzią – ale w dużej mierze sterują dokąd płynie.

Z człowiekiem u steru możemy projektować systemy AI, które wykorzystują to, co najlepsze w ludzkiej i maszynowej inteligencji. Przykładowo możemy odblokować niesamowitą wydajność, zlecając jej przeglądanie oraz podsumowywanie milionów profili klientów. Jednocześnie możemy budować zaufanie, umożliwiając ludziom pochylenie się nad wynikami i wykorzystanie ich w sposób, w jaki sztuczna inteligencja nie potrafi.

Sztuczna inteligencja jako drugi pilot, a nie autopilot

Nie bez powodu produkty AI tej generacji nazywane są copilotami, a nie autopilotami. W miarę jak sztuczna inteligencja staje się coraz potężniejsza i bardziej autonomiczna – podejmując decyzje, czy działania w imieniu jednostek – utrzymanie człowieka za sterami staje się jeszcze ważniejsze. Łącząc możliwości sztucznej inteligencji z siłą ludzkiego osądu, możemy uczynić ją bardziej skuteczną i godną zaufania.

Przykłady na to, jak człowiek steruje AI:

Salesforce Prompt Builder: pytania lub instrukcje, które wysyłamy do generatywnych modeli AI, są bardzo istotne. Pojedynczy, wygenerowany przez człowieka monit może pomóc w uzyskaniu dokładnych wyników – ale tylko wtedy, gdy jest starannie skonstruowany. Dzięki narzędziu Prompt Builder pomagamy klientom tworzyć skuteczne instrukcje, widząc prawdopodobne wyniki w czasie zbliżonym do rzeczywistego. W ten sposób pomagamy uzyskać pożądany wynik AI. Różne tryby edycji w Prompt Builder pozwalają użytkownikom dostosowywać i poprawiać swoje pytania tak, aby zapewniały bardziej pomocne, dokładne i trafne wyniki.

Ścieżki audytu pomagają wykryć to, co przeoczyliśmy: warstwa zaufania Einstein oferuje mocną ścieżkę audytu, która pozwala klientom ocenić historię pracy AI i wskazać, gdzie mógł zostać popełniony błąd – ale także gdzie sztuczna inteligencja poradziła sobie dobrze. Funkcje te ułatwiają zidentyfikowanie problemów w dużych zbiorach danych, które mogłyby nie zostać wyłapane przez człowieka. Umożliwia to wykorzystanie osądu człowieka do wprowadzenia poprawek na podstawie potrzeb organizacji. Na przykład Audit Trail może ostrzegać nas, gdy wyniki narzędzia AI są oznaczone jako "kciuk w dół" określoną liczbę razy – to sygnał, że wyniki generowane przez AI mogą nie spełniać celów biznesowych. Poprzez agregowanie ukrytych sygnałów zwrotnych, takich jak częstotliwość edytowania danych wyjściowych przez użytkowników przed ich użyciem, Audit Trail może dać nam pełen wgląd w systemy, pozwalając zidentyfikować trendy i podjąć stosowne działania.

Pionierskie podejście do ery sztucznej inteligencji

W miarę rozwoju ery sztucznej inteligencji niezwykle ważne jest, aby zarówno ludzie, jak i technologia ewoluowały wraz z nią. Rewolucja AI to nie tylko innowacje technologiczne – to także umożliwienie ludziom skutecznego zasiadania za sterami AI i wykorzystywania jej możliwości w sposób godny zaufania, ale także skuteczny.

Z człowiekiem u steru możemy połączyć to, co najlepsze w ludzkiej i maszynowej inteligencji – opierając się na możliwościach sztucznej inteligencji i uwalniając potencjał ludzi do robienia tego, co robią najlepiej: bycia kreatywnym, dokonywania osądów i głębszego łączenia danych ze sobą. Dzięki współpracy AI i ludzi możemy stworzyć bardziej produktywne firmy, wzmacniać pracowników, a ostatecznie budować godną zaufania sztuczną inteligencję.

Źródło: Salesforce

PRZECZYTAJ RÓWNIEŻ:


Back to top