摘要:描述輸入一個正整數和階方陣中的元素,如果找到中的鞍點鞍點的元素值在該行上最大,在該列上最小,就輸出它的下標否則,輸出沒有鞍點,設中最多有一個鞍點。
? 輸入一個正整數m(1<= m <= 6)和m階方陣A中的元素,如果找到A中的鞍點(鞍點的元素值在該行上最大,在該列上最小),就輸出它的下標;否則,輸出"NO"(沒有鞍點),設A中最多有一個鞍點。
3
1 2 3
0 1 2
0 0 1
2 2
4
1 2 3 4
0 1 1 3
0 0 1 2
1 0 0 1
NO
? ? ? ? 用二維數組來做這道題會減小我們的難度。同時,先求出每一行的最大值,再在這一個元素的這一列來判斷它是不是最小的,對它們進行判斷。最后打印出這個元素的下標就可以了。同時還要注意,在樣例中輸入4和矩陣里的元素時發現,有重復的值(1)的時候,就算他是最小的,但因為重復,不符合鞍點的定義,所以,還需要判斷是否有重復的值。另外,題目說明,鞍點最多只有一個。
#includeint main(void){ int i = 0, j = 0; int arr[6][6] = { 0 }; int max = 0;//定義最大值 int _bool = 0;//標簽作用,用來判斷是否有重復值 //最后當_bool=0,說明沒有,_bool=1,說明有 int row = 0, col = 0;//行,列 int m = 0; scanf("%d", &m); for(i = 0; i < m; i++) { for(j = 0; j < m; j++) { scanf("%d", &arr[i][j]); } } //由于不知道最大值,開始假設第一行第一列元素是最大的 max = arr[0][0]; for(i = 0; i < m; i++)//一行 { //假設每一行的第一個元素為最大值 max = arr[i][j]; //尋找每一行的最大值 for(j = 0; j < m; j++) { if(arr[i][j] > max) { //如果是MAX,就記錄它的下標 //不可以直接用i或j,它們是隨條件在變 //用另一個量來記錄下標 row = j; _bool = 1; //記錄最大值,在后面的判斷用 max = arr[i][j]; } } //用來判斷這一行的最大值是否有重復的 //如果有,_bool=0,不存在鞍點 for(j = 0; j < m; j++) { //循環時不需要判斷它本身 if(arr[i][j] == max && j != row) { _bool = 0; } } //列的判斷,行滿足后,找列的最小值。 for(j = 0; j < m; j++) { if(arr[i][row] < arr[j][row]) { col = i; } } } if(_bool == 0) { printf("NO/n"); } else { printf("%d %d", row, col); } return 0;}
????????
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/124774.html
摘要:對所有參數更新時應用同樣的學習率梯度由許多偏導數組成,對應著各個參數的更新。對于偏導數大的,我們希望配個小的學習率給他對于偏導數小的,我們希望配個大的學習率給他,這樣各個參數都能獲得大致相同的更新幅度,提高網絡的健壯性。 后續【DL-CV】更高級的參數更新/優化(二) 【DL-CV】正則化,Dropout【DL-CV】淺談GoogLeNet(咕咕net) 原版SGD的問題 原味版的S...
摘要:深度神經網絡已經成為解決計算機視覺語音識別和自然語言處理等機器學習任務的較先進的技術。圖深度壓縮的實驗結果訓練深度神經網絡可以被大量剪枝和壓縮的事實意味著我們當前的訓練方法具有一些局限性。 深度神經網絡已經成為解決計算機視覺、語音識別和自然語言處理等機器學習任務的較先進的技術。盡管如此,深度學習算法是計算密集型和存儲密集型的,這使得它難以被部署到只有有限硬件資源的嵌入式系統上。為了解決這個限...
摘要:我認為在大多數深度學習中,算法層面上隨機梯度的下降是大家所認可的。但目前似乎存在兩個問題計算層面納什平衡達不到可能會退化。 去年我一直在研究如何更好地調整GANs中的不足,但因為之前的研究方向只關注了損失函數,完全忽略了如何尋找極小值問題。直到我看到了這篇論文才有所改變:詳解論文: The Numerics of GANs我參考了Mar的三層分析,并在計算層面上仔細考慮了這個問題:我們這樣做...
閱讀 2645·2023-04-26 02:17
閱讀 1619·2021-11-24 09:39
閱讀 1079·2021-11-18 13:13
閱讀 2648·2021-09-02 15:11
閱讀 2781·2019-08-30 15:48
閱讀 3412·2019-08-30 14:00
閱讀 2442·2019-08-29 13:43
閱讀 666·2019-08-29 13:07