W momencie swojego debiutu model DeepSeek-R1 wywołał ogromne zamieszanie na rynku. Szokował przede wszystkim koszt jego uczenia, który miał być nawet 27x niższy niż o1 od OpenAI. Sprawie postanowił się przyjrzeć Copyleaks, który wykorzystał w tym celu narzędzia badające unikatowość tekstów generowanych przez AI. Z uwagi na różnice w ich budowie i różne zestawy danych wyniki jakie modele te generują są do pewnego stopnia inne. Reguła ta dotyczy wszystkich modeli AI poza DeepSeek-R1, który jak się okazuje mocno wzoruje się na konkurencji.
Analiza przeprowadzona przez Copyleaks wykazała, że 74,2 procent tekstów wygenerowanych przez DeepSeek-R1 było zgodnych ze wzorcami stylistycznymi OpenAI.
Dla kontrastu teksty wygenerowane przez model Phi-4 firmy Microsoft były w 99,3 procent rozbieżne pod względem stylistycznym od popularnych LLMów.
To odkrycie budzi poważne obawy dotyczące legalności działalnia DeepSeek-R1, szczególnie w zakresie pozyskiwania danych, praw własności intelektualnej i przejrzystości oraz etyczności.
Podczas swoich testów Copyleaks wykorzystał trzy zaawansowane klasyfikatory AI wytrenowane na tekstach z głównych modeli, w tym Claude, Gemini, Llama i OpenAI. Klasyfikatory te zostały zbudowane w taki sposób by wykrywać niuanse stylistyczne w generowanych tekstach, takie jak struktura zdań, słownictwo i frazeologia.
K O M E N T A R Z E
Jeszcze nikt nie napisał komentarza.
D O D A J K O M E N T A R Z
Aby dodawać komentarze, należy się wpierw zarejestrować, ewentualnie jeśli posiadasz już swoje konto, należy się zalogować.