respectively用法的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列特價商品、必買資訊和推薦清單

另外網站【恒大譯站】「分別」翻譯分別大 - 文匯報也說明:《Oxford Advanced Learner's Dictionary》對「respectively」的定義是「in the same order as the ... 這個定義有點難明,但其實看例子便能明白其用法。

國立臺灣師範大學 華語文教學系 徐東伯所指導 張伃涵的 漢語為二語之英語一語者習得漢語時態之可能性:以有+VP之「有」作為漢語時態標記 (2021),提出respectively用法關鍵因素是什麼,來自於有+動詞片語、時態標記、完全遷移/完全運作假說、詮釋假說。

而第二篇論文國立中央大學 數學系 洪盟凱所指導 廖翊均的 藉由mBART50和DialoGPT所生成之繁體中文對話 (2021),提出因為有 機器翻譯、對話生成、mBART50、DialoGPT的重點而找出了 respectively用法的解答。

最後網站Respectable, respectful, respective (adjs.) - 英文資訊交流網則補充:Respective 意為「個別的,各自的」:We all then left for our respective homes. (然後我們就各自回家了)。respective 的副詞respectively 意為「個別地 ...

接下來讓我們看這些論文和書籍都說些什麼吧:

除了respectively用法,大家也想知道這些:

漢語為二語之英語一語者習得漢語時態之可能性:以有+VP之「有」作為漢語時態標記

為了解決respectively用法的問題,作者張伃涵 這樣論述:

本研究首先論述「有+動詞片語」之「有」為時態標記,與表完成的英語have + VP和日語句末標記「た」對照,再觀察「有」與漢語助動詞的互動,進而證明「有」為時態標記。漢語助動詞後接限定或非限定子句與時態有關。接著為探究漢語二語者是否能習得作為時態標記的「有」,本研究討論兩種假說:完全遷移/完全運作假說 (Full Transfer/Full Access Hypothesis)和詮釋假說 (Interpretability Hypothesis)。完全遷移/完全運作假說認為學習二語之初,參數設定受一語遷移影響,隨著二語者程度提升,普遍語法能逐漸將一語的參數重設為二語的參數,二語者終能習得二語

;詮釋假說則認為參數重設的前提是語義上為可詮釋的特徵,語義上無法詮釋的特徵即使是高程度的二語者也難以藉由普遍語法重設,因此二語者最終可能習得可詮釋的特徵,但較難習得無法詮釋的特徵。本研究中之「有」隱含時態,為語義上無法詮釋的特徵,若詮釋假說成立,則即使是高程度的漢語二語者也難以習得作為時態標記的「有」,若完全遷移/完全運作假說成立,則高程度的漢語二語者能設定「有」的參數並習得「有」。本研究採用接受度判斷實驗,受試者為漢語一語者和以英語為一語的中級至高級漢語二語者,實驗材料為「有+動詞片語」搭配時間詞和「有+動詞片語」搭配助動詞的句子。英語have + VP和漢語「有+動詞片語」分別表示時貌和時

態,「有」對於以英語為一語的漢語二語者來說不僅是無法詮釋的特徵,還與have的時間意義不同。實驗結果顯示漢語一語者和以英語為一語的漢語二語者在「有+動詞片語」的接受度判斷上無顯著差別,表示漢語二語者對「有」的參數設定和一語者無差別,漢語二語者能將have的參數重設為「有」的參數並習得時貌標記「有」,因此本研究支持完全遷移/完全運作假說。

藉由mBART50和DialoGPT所生成之繁體中文對話

為了解決respectively用法的問題,作者廖翊均 這樣論述:

在自然語言處理中,目前已知的模型大部分都有支援中文翻譯或者對話的生成。但是我們知道,中文分為簡體中文以及繁體中文。 然而這些模型支援的中文多為簡體中文, 雖然同樣都是中文,但它們的用詞以及用法都不盡相同。由於缺乏繁體中文的翻譯和對話數據,本文將以翻譯和對話相結合來進行。也就是說,我們做了繁體中文和英文的雙向翻譯,以及英文的對話。訓練翻譯的數據來以下的新聞以及線上課程網站:The China Post、Voice Tube和Hope English,並且對話數據來自dailydialog,之後我們使用Hi Tutor和 TOCFL來做最後的測試。我們藉由 mBART50 以及 DialoGPT

兩種模型的合併並且使用微調的方式來生成繁體中文的對話。我們微調出來的翻譯模型其結果皆比原來的模型好,尤其是在beam size值為7時。對話模型在微調後的結果顯示,在小型的模型中生成的對話最為流暢。在最後的實驗中,我們運用了參數 beam size、top k 和 top p 找出能夠產生最佳結果的數值,分別為:7、10和0.95。我們最好的模型在最後的測試中的分數為2.85。最後,我們使用微調出來的最好的模型生成了一個藉由英文對話而產生的繁體中文的對話。