aby ukończyć studia, muszę tworzyć metody przewyższające to, co już jest.
Nie, to nieprawda. Musisz dostarczyć kawałek odpowiedniej pracy naukowej i rozwinąć wiedzę, a to nie zależy od kierunku twoich ustaleń.
Oczywiście, sprawy są łatwiejsze i przyjemniejsze, jeśli wdrożenie jest lepsze. Jednak właściwą naukową częścią twojej pracy jest naukowe zbadanie zarówno starego, jak i twojego podejścia, a następnie stwierdzenie, czy jest ono lepsze (i być może w jakich sytuacjach).
Trudność w twojej sytuacji polega na udowodnieniu, że rozbieżność z literaturą nie wynika z twojej niekompetencji lub braku ciężkiej pracy (=> zasługujesz na złą ocenę), ale w rzeczywistości z tego, że "natura" nie jest taka, jak powinna być w poprzednim artykule.
To, co możesz i powinieneś zgłosić, to
- że nie byłeś w stanie odtworzyć ustaleń z artykułów 1 + 2,
- w konsekwencji w komunikacji z autorami.
- Co ważne, że Twoja implementacja została potwierdzona jako poprawna w prywatnej komunikacji z autorami artykułu 2 oraz przez porównanie z (poufnym) kodem, który otrzymałeś od autorów artykułu 1 ponownie przez prywatna komunikacja w tym celu.
-
Jeśli
Okazuje się, że nie wykorzystują danych, które podają w swojej pracy, oczywiście ich wyniki są inne niż moja reimplementacja.
oznacza, że masz zestaw danych, którego faktycznie używali i otrzymałeś te same wyniki, a następnie możesz również zgłosić, że dla powiązanego zestawu danych te same wyniki zostały uzyskane.
Jeśli nie, można uprzejmie zapytać autorów artykułu 1 + 2, czy uruchomiliby zbiór danych, które im przesyłasz, i podać wyniki ich wdrożeń, abyś mógł porównaj to z wynikami. Następnie możesz zgłosić (miejmy nadzieję), że równe wyniki uzyskano dla innego zestawu danych i podziękować autorom tych artykułów za analizę danych.
Ostatnie dwa punkty powinny jasno wyjaśniać, że rozbieżność nie jest spowodowana błędem w twojej implementacji - i to właśnie liczy się w twojej pracy magisterskiej.
Na marginesie, otrzymałem najwyższą ocenę z moja praca dyplomowa (≈ magisterska), w której (między innymi) stwierdzono, że implementacja oprogramowania, z którego korzystałem, nie działała tak, jak powinna. Udało mi się wskazać wiarygodny i prawdopodobny powód tego błędu (który mógł być pozostałą „funkcją” debugowania) - co jest o wiele trudniejsze, ponieważ nie masz dostępu do działającej instancji ich oprogramowania, którą możesz test (= badanie), aby sformułować i potwierdzić lub odrzucić hipotezy dotyczące jego zachowania.
Jako dodatek do tego, co @Buffy wyjaśnił już na temat możliwości popełnienia uczciwych błędów w opublikowanych artykułach:
Jako naukowcy pracujemy na krawędzi tego, co jest znane. Oznacza to również, że z natury rzeczy narażamy się na wysokie ryzyko, że (jeszcze) nie poznamy / nie zdamy sobie sprawy z ważnych warunków i ograniczeń tego, co robimy.
W związku z tym istnieje również stosunkowo wysokie ryzyko, że wstępne uogólnienia, które rozważamy, mogą się okazać nie być wcale takim ogólnym. Albo że możemy się po prostu mylić i zdać sobie z tego sprawę dopiero później (lub wcale). Uważam, że ludziom bardzo trudno jest całkowicie zdać sobie sprawę z ograniczeń wyciąganych przez nas wniosków - prawdopodobnie / prawdopodobnie dlatego, że nasze mózgi są „zaprogramowane” do nadmiernego dopasowania. (Co również stawia nas w złej pozycji wyjściowej, jeśli chodzi o unikanie nadmiernego dopasowania np. W modelach uczenia maszynowego, które budujemy)
Komunikat, który można wziąć do domu, jest taki, że musimy być ostrożni również podczas czytania opublikowanych artykułów : musimy zachować możliwość, że papier jest zły, zawiera szczere błędy lub nie ma bezpośredniego zastosowania do naszego zadania, jak sądzimy na pierwszy rzut oka.
Coś przeoczyłem podczas implementacji.
Coś podobnego doświadczyłem kiedyś, kiedy wdrażałem metodę referencyjną z literatury (pokrewna, ale inna dziedzina). Okazało się, że różne wartości domyślne w wstępnym przetwarzaniu danych spowodowały różnicę - ale dopiero po tym, jak wpadłem na błyskotliwy pomysł, aby spróbować pominąć etap wstępnego przetwarzania - chociaż model nie ma większego sensu fizycznego bez tego kroku, ale artykuł nie wspomniał o żadnym takim kroku (ani w wielu pracach z mojej dziedziny, w których ten krok jest używany, ponieważ jest on uważany za konieczny z powodów fizycznych).
- Nie są uczciwi.
Chociaż jest to oczywiście możliwe, widziałem wystarczająco dużo uczciwych błędów, aby użyć brzytwy Hanlona (którą po raz pierwszy spotkałem jako brzytwę Murphy'ego ): i nie zakładać nieuczciwości ani niewłaściwego postępowania, chyba że istnieją na to wyjątkowo mocne przesłanki.
Udowodnienie wyższości może w każdym być czymś, co jest niemożliwe ze względu na ograniczenia w starym artykule.
Np. jeśli podadzą wyniki walidacji w oparciu o niewielką liczbę przypadków, niepewność co do tych wyników może być tak duża i dlatego nie można wykluczyć, że metoda jest lepsza niż się wydawało , że naprawdę ulepszone metody będą później nie są w stanie wykazać swojej wyższości w sposób rzetelny statystycznie.
Jednak taka wada starego artykułu nie ogranicza treści naukowych ani postępu Twojej pracy.