第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請及時(shí)綁定郵箱和手機(jī)立即綁定
已解決430363個(gè)問題,去搜搜看,總會(huì)有你想問的

縮進(jìn)錯(cuò)誤。我完全不知所措

縮進(jìn)錯(cuò)誤。我完全不知所措

慕容3067478 2023-06-27 14:42:10
我已經(jīng)手動(dòng)將整個(gè)事情間隔開。盡管如此,它還是行不通。第一行之后直接出現(xiàn)縮進(jìn)錯(cuò)誤。代碼:def train_epoch(model, data_loader, loss_fn, optimizer, device, scheduler, n_examples):""" docstring? """losses = []for d in data_loader:    input_ids = d['input_ids'].to(device)    targets = d['targets'].to(device)    outputs = model(input_ids = input_ids, labels = targets)    loss = loss_fn(outputs, targets)    losses.append( loss.item() )    loss.backward()    optimizer.step()    scheduler.step()    optimizer.zero_grad()return np.mean(losses)錯(cuò)誤:def train_epoch(模型、data_loader、loss_fn、優(yōu)化器、設(shè)備、調(diào)度器、n_examples): ...文件“”,第 2 行 ^ IndentationError:需要縮進(jìn)塊到底是怎么回事?我沒有看到任何地方有問題。
查看完整描述

3 回答

?
ibeautiful

TA貢獻(xiàn)1993條經(jīng)驗(yàn) 獲得超6個(gè)贊

def train_epoch(model, data_loader, loss_fn, optimizer, device, scheduler, n_examples):

    """

    docstring?

    """

    losses = []

    for d in data_loader:

        input_ids = d['input_ids'].to(device)

        targets = d['targets'].to(device)

        outputs = model(input_ids = input_ids, labels = targets)

        loss = loss_fn(outputs, targets)

        losses.append( loss.item() )

        loss.backward()

        optimizer.step()

        scheduler.step()

        optimizer.zero_grad()

    return np.mean(losses)

請像這樣格式化。您的代碼不在您的train_epoch()方法的縮進(jìn)塊下。


查看完整回答
反對(duì) 回復(fù) 2023-06-27
?
慕田峪4524236

TA貢獻(xiàn)1875條經(jīng)驗(yàn) 獲得超5個(gè)贊

我修改了它:for循環(huán)必須向右縮進(jìn)才能使其函數(shù)代碼運(yùn)行或在函數(shù)內(nèi)部,否則它不會(huì)被視為函數(shù)代碼。此外,在這種情況下,損失列表必須位于 for 循環(huán)內(nèi)部,而不是在其之前,也不能位于同一 for 循環(huán)級(jí)別。嘗試一下然后告訴我。如果成功投票并回答:-)


def train_epoch(model, data_loader, loss_fn, optimizer, device, scheduler, n_examples):

   

      

      for d in data_loader:

        losses = []

        input_ids = d['input_ids'].to(device)

        targets = d['targets'].to(device)

        outputs = model(input_ids = input_ids, labels = targets)

        loss = loss_fn(outputs, targets)

        losses.append( loss.item() )

        loss.backward()

        optimizer.step()

        scheduler.step()

        optimizer.zero_grad()


        return np.mean(losses)


查看完整回答
反對(duì) 回復(fù) 2023-06-27
?
翻閱古今

TA貢獻(xiàn)1780條經(jīng)驗(yàn) 獲得超5個(gè)贊

這是因?yàn)榈谝恍?。函?shù)體必須縮進(jìn)。


def train_epoch(model, data_loader, loss_fn, optimizer, device, scheduler, n_examples):

    """ docstring? """

    losses = []

    for d in data_loader:

        input_ids = d['input_ids'].to(device)

        targets = d['targets'].to(device)

        outputs = model(input_ids = input_ids, labels = targets)

        loss = loss_fn(outputs, targets)

        losses.append( loss.item() )

        loss.backward()

        optimizer.step()

        scheduler.step()

        optimizer.zero_grad()

    return np.mean(losses)


查看完整回答
反對(duì) 回復(fù) 2023-06-27
  • 3 回答
  • 0 關(guān)注
  • 188 瀏覽
慕課專欄
更多

添加回答

舉報(bào)

0/150
提交
取消
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)